ANKARA (AA) - Yapay sinir ağları ile makine öğrenimini sağlayan temel keşif ve icatlar dolayısıyla Nobel Fizik Ödülü alan Geoffrey Hinton, yapay zeka teknolojilerinin oluşturabileceği güvenlik tehditleri konusunda uyarıda bulundu.
Irish Examiner'ın haberine göre, Nobel Ödülü kazanması ardından basına konuşan Hinton, yapay zeka teknolojisinin gözetim altında tutulmadığı takdirde siber saldırılara ve dolandırıcılık gibi sorunlara yol açabileceğinin altını çizdi.
Hinton, birçok araştırmacının gelecek 20 yıl içinde yapay zekanın "bizden daha akıllı olacağına inandığını" belirtmesinin ardından, bu senaryonun göz önünde bulundurulması gereken bir olasılık olduğunu kaydetti.
Yapay zekanın oluşturduğu güvenlik tehdidinin önemini vurgulayan Hinton, "Etrafınıza bakarsanız, daha zeki şeylerin daha az zeki şeyler tarafından kontrol edildiği çok az örnek var. Bu yapay zeka bizden daha zeki hale geldiğinde kontrolü ele geçirip geçirmeyeceğini merak ettiriyor." ifadelerini kullandı.
Hinton, dün Nobel Fizik Ödülü'ne layık görüldüğü haberini halen şaşkınlıkla karşıladığını belirterek, "Nobel Komitesi'nin yapay sinir ağları alanında büyük bir ilerleme kaydedildiğini kabul etmesinden çok memnunum." dedi.
Yapay zeka alanındaki birçok insanın yapay sinir ağlarının işe yaramayacağını düşündüğünü aktaran Hinton, "Sinir ağlarını kullanarak dili anlamak gibi karmaşık şeyleri asla öğrenemeyeceğimize inanıyorlardı. Yanıldılar." diye konuştu.
Daha önce ABD ordusundan fon almayı reddederek Kanada'da araştırmalarına devam eden Hinton, Nobel Ödülü ile gelen yaklaşık 1 milyon avro para ödülünden kendi payını "sosyalleşme, öğrenme, dikkat, duygu durum ve diğer zihinsel işlevlerinde farklılıklar olan nöroçeşitliliğe sahip genç yetişkinlere iş imkanı sunan bir hayır kurumu" da dahil olmak üzere çeşitli hayır kurumlarına bağışlayacağını bildirdi.
İngiliz asıllı Kanada vatandaşı Geoffrey Hinton ve Amerikalı John Hopfield, dün "yapay sinir ağları ile makine öğrenimini sağlayan temel keşif ve icatlar" dolayısıyla 2024 Nobel Fizik Ödülü'ne layık görülmüştü.