Sitemize üye olarak beğendiğiniz içerikleri favorilerinize ekleyebilir, kendi ürettiğiniz ya da internet üzerinde beğendiğiniz içerikleri sitemizin ziyaretçilerine içerik gönder seçeneği ile sunabilirsiniz.
Zaten bir üyeliğiniz mevcut mu ? Giriş yapın
Sitemize üye olarak beğendiğiniz içerikleri favorilerinize ekleyebilir, kendi ürettiğiniz ya da internet üzerinde beğendiğiniz içerikleri sitemizin ziyaretçilerine içerik gönder seçeneği ile sunabilirsiniz.
Üyelerimize Özel Tüm Opsiyonlardan Kayıt Olarak Faydalanabilirsiniz
Yapay Zeka ile Hayvanların Yüzü Tanınacak
Google I/O 2018’de yeni yetenekleriyle tanıtılan Google Asistan, bu kez alışılmışın dışında bir deneyle gündeme geldi. ABD’li bir sanatçı, yapay zekanın potansiyel risklerine dikkat çekmek için Google Asistan’ın fiziksel bir silahı tetiklediği çarpıcı bir çalışma gerçekleştirdi.
Günümüzde yapay zekanın insanlık için bir tehdit oluşturup oluşturmadığı sıkça tartışılıyor. Özellikle güçlü askeri kapasiteye sahip ülkelerin, otonom robot orduları geliştirme hedefleri bu endişeleri daha da artırıyor. Bu robotların karar alma mekanizmalarının etik ve güvenlik boyutu, uzmanlar arasında hâlâ net bir sonuca ulaşmış değil.
Yapay zekanın tehlikeli olabileceğini savunan sanatçı Alexander Reben, teknolojiyi sanatsal bir bakış açısıyla ele alarak dikkat çekici bir deney hazırladı. Kurulan sistem oldukça basitti. Karbondioksit tüplü bir havalı tabanca, tetiği hareket ettiren bir akıllı priz ve komutları algılayan Google Asistan kullanıldı. Sanatçı, yalnızca sesli bir komut vererek silahın ateşlenmesini sağladı.
Reben’in vurgulamak istediği nokta, kullanılan yapay zeka platformunun hangisi olduğu değil. Aynı düzenek başka bir dijital asistanla da çalışabilirdi. Asıl mesele, yapay zekanın karşısındaki kişinin sivil mi yoksa tehdit mi olduğunu ayırt edememesi. Bu deney, savaş ortamında kullanılan otonom sistemlerin, insan muhakemesi olmadan ölümcül kararlar verebileceği riskine dikkat çekiyor.
Bu çalışma, yapay zekanın kontrolsüz kullanımı halinde ne kadar tehlikeli olabileceğini çarpıcı bir şekilde ortaya koyuyor. Her ne kadar komutu veren bir insan olsa da, sistemi uygulayan yapay zeka herhangi bir etik değerlendirme yapmıyor. Bu durum, gelecekte otonom silah sistemlerinin nasıl denetlenmesi gerektiği sorusunu yeniden gündeme taşıyor.
Yorum Yaz