Bilim insanlarının yaptığı araştımalar, yapay zekanın bir okul otobüsünü devekuşu, kaplumbağayı tüfek, kediyi köpek olarak algılayabileceğini ortaya koydu.
Deneyler, Japon bilim insanlarının yapay zekaya dayanan görüntü tanımlama sistemini yanıltması ile başladı.
Kyushu Üniversitesi'nden Su Jiawei ve meslektaşları, birçok fotoğrafta ufak değişiklikler yaptılar. Bu fotoğraflar daha sonra görüntü tanımamlama sistemi tarafından analiz edildi.
Test edilen bütün sistemler derin sinir ağları denilen bir yapay zeka çeşidi etrafında kuruluydu.
Sinir ağları temelli öğrenme sistemi, tipik olarak çok sayıda devre arasında bağ kurulmasını içeriyor - beyindeki sinir hücreleri gibi.
Bu sistemler, objelerin tipik olarak birbirinden nasıl farklılaştığını, pek çok farklı örneği karşılaştırarak öğreniyorlar.
Araştırmacılar, bir fotoğrafın yüzde 74'ünde bir pikseli değiştirmenin, yapay zekanın gördüğünü yanlış algılamasına neden olduğunu buldular.
(BİLİM FOTOĞRAFLARI KÜTÜPHANESİ)
Sinir ağları temelli öğrenme sistemi, tipik olarak çok sayıda devre arasında bağ kurulmasını içeriyor
Bazı hatalar çok da büyük değildi. Örneğin kedi, köpekle karıştırıldı. Ancak bazıları oldukça şaşırtıcıydı. Örneğin hayalet uçak, köpek sanıldı.
Massachusetts Teknoloji Enstitüsü'nden (MIT) araştırmacılar deneyleri bir adım ileriye götürerek üç boyutlu baskılar kullandı.
Bu ekipte yer alan Massachusetts Teknoloji Enstitüsü'nden (MIT) Anish Athalye, dünya çapında araştırmacıların yapay zeka temelli görüntü tanımlama sisteminin zayıflığını ortaya koymak için deneyler yaptıklarını söylüyor.
Athalye ve iş arkadaşlarının yaptığı deneylerde üç boyutlu bir kamlumbağa, tüfek olarak algıladı.
Athalye BBC'ye yaptığı açıklamada 'Giderek artan sayıda gerçek dünyada kullanılan sistemler sinir ağlarını kullanmaya başlıyorlar ve bu sistemlere yanıltıcı örneklerle saldırı düzenlemek mümkün' diyor.
Şimdiye kadar böyle bir olay gerçekleşmese de, Athalye bu akıllı sistemlerin çok kolay bir şekilde kandırılabilmelerinin endişe verici olduğunu söylüyor.
Facebook, Amazon ve Google gibi internet devlerinin bu tür çarpıtmalarla baş etme yöntemleri üzerinde çalıştıkları biliniyor.
Athalye, derin sinir ağlarını bu tür yanıltmalardan korumanın zor olduğunu söylüyor ve devam ediyor: 'Bu çözülememiş bir sorun. Önerilen çok fazla sayıda teknik oldu ve hemen hepsi işe yaramaz çıktı.'
Araştırmacı, öğrenme süreci sırasında bu yanıltıcı örneklerin gösterilmesinin işe yarayabileceğini düşünüyor, ancak bunun bile bu araştırmayla ortaya konan bütün sorunlara nihai bir çözüm getirmeyeceğini kaydediyor.
'Burada kesinlikle garip ve ilginç bir şeyler dönüyor. Biz sadece henüz bunun ne olduğunu bilmiyoruz.'
Haber: BBC Türkçe