İsrail ordusu tarafından Gazze soykırımında kullanılan yapay zeka sistemlerinin sivil ölümlerine yol açabilecek hataları ortaya çıktı. Gazze'ye yönelik gerçekleştirilen soykırım ve Lübnan'a yapılan saldırılarda yapay zeka kullanımının sivil hedeflerin de hedef alındığı ve savaş suçu unsurları barındırdığı eleştirileriyle karşı karşıya. İsrail'in kullandığı yapay zeka destekli teknolojiler arasında sivilleri izlemek ve hedeflemek için Habsora, Lavender ve Where is Daddy? bulunuyor. Bu teknolojilere Microsoft ve OpenAI gibi Amerikan şirketlerinden destek geldi. İsrail ordusunun yapay zeka sistemlerinin sivil ölümlerine neden olabilecek hataları bulunduğu belirlendi. Yapay zeka sistemlerinin hatalarını tespit etmenin zor olabileceği ve bu durumun haksız ölümlere yol açabileceği vurgulandı. İsrail ordusunun Microsoft Azure kullanarak kitlesel gözetleme yapabildiği ve OpenAI modellerini sıkça kullandığı tespit edildi. Bu yapay zeka sistemlerinin tercüme hataları yapabileceği ve yanlış hedeflere işaret edebileceği riskine dikkat çekiliyor. Microsoft ve OpenAI'nın İsrail ordusuna sağladığı yapay zeka desteğinin arttığı ve ordunun bu sistemleri aktif olarak kullandığı belirlendi.

Comments