Süper zekanın risklerini tartıştılar


Kaynak:Donanım GünlüğüYapay zekanın geleceği üzerine sert açıklamalarıyla tanınan Eliezer Yudkowsky, süper zeka çağının temel açmazını bir kez daha gündeme taşıdı.Haberin DevamıHaberin DevamıHaberin DevamıHaberin Devamı
Yapay zeka araştırmacısı ve karar teorisyeni Eliezer Yudkowsky, kısa süre önce Foresight Enstitüsü’nün YouTube’daki podcast’ine katıldı. Bu podcast’in diğer konuğu da bilgisayar mühendisi Mark Miller’dı. İkili süper zekanın risklerini tartıştılar.
Yudkowsky konuşmasında insanlığa fayda sağlayacak hedefleri, yapay zekanın karar mekanizmasına yerleştirmenin aşırı zor olduğunu vurguladı. Ona göre bu sorun halledilmezse süper zeka insanlık için büyük bir tehdit haline gelebilir.
Yudkowsky, hangi karar teorisinin uygulanması gerektiğinin aşılamadığını dile getirdi. “Ben bilmiyorsam muhtemelen insanlık da bilmiyordur” diyen ünlü araştırmacı, böylelikle konunun boyutunu da gözler önüne sermiş oldu. Bu açıklama, problemin sadece teknik değil, aynı zamanda kavramsal olarak da henüz yanıt bulmadığını gösteriyor.
Karar teorisi belirsiz durumlarda en iyi seçeneği bulmaya çalışan ve bunu matematiksel hesaplarla destekleyen bir alan.
Eliezer Yudkowsky’ye göre kilit nokta, yapay zekaya insanların güvenli ve mutlu yaşamını her şeyin üstünde tutacak bir çözüm kazandırmak. Ancak bu çözümün nasıl oluşturulacağı halen bilinmiyor.
Haberin DevamıHaberin DevamıHaberin DevamıHaberin Devamı
Üstelik geliştirilecek sistemin, gelecekteki süper zekaların davranışlarını öngörecek kadar güçlü olması da şart. Yudkowsky, GPT-7 seviyesindeki modeller tamamlanmadan önce bu yapının hayata geçirilmesi gerektiğini belirtti.
- Eliezer Yudkowsky
- yapay zeka
- süper zeka
Haber Kaynak : CNNTURK.COM
“Yayınlanan tüm haber ve diğer içerikler ile ilgili olarak yasal bildirimlerinizi bize iletişim sayfası üzerinden iletiniz. En kısa süre içerisinde bildirimlerinize geri dönüş sağlanılacaktır.”