Korkutan yapay zeka uyarısı: Kandırıyor, yalan söylüyor

Turing Ödülü sahibi ve Montreal Üniversitesi profesörü Yoshua Bengio, Financial Times’a verdiği röportajda, önde gelen yapay zeka laboratuvarlarının, “Yapay zekayı daha akıllı hale getirmeye odaklandığını, ancak güvenlik konusunda yeterli araştırma ve yatırım yapılmadığını” söyledi.
Bengio, yapay zeka güvenliği üzerine odaklanacak yeni bir kar amacı gütmeyen kuruluş olan LawZero’yu hayata geçirdiğini duyurdu. Kurum, Skype’ın kurucu mühendisi Jaan Tallinn, eski Google CEO’su Eric Schmidt’in hayır inisiyatifi, Open Philanthropy ve Future of Life Institute gibi bağışçılardan toplamda 30 milyon dolara yakın destek aldı.
LawZero, insanları memnun etmek için değil, doğru ve şeffaf gerekçelerle yanıt veren, aynı zamanda çıktının güvenli olup olmadığını değerlendirebilen yeni nesil güvenli yapay zeka sistemleri geliştirmeyi amaçlıyor. Kuruluş şu anda 15 kişilik bir ekibe sahip ve teknik yetenekleri artırmak için yeni işe alımlar yapmayı planlıyor.
Bengio, LawZero’ya odaklanmak için Quebec Yapay Zekâ Enstitüsü (Mila)’daki bilimsel direktörlük görevinden ayrılacağını da açıkladı.
“KANDIRIYOR, YALAN SÖYLÜYOR”
Bengio, son 6 ayda önde gelen modellerin tehlikeli yetenekler geliştirdiğine dair çok sayıda kanıt toplandığını belirtti. Bu tehlikeler arasında “aldatma, hile yapma, yalan söyleme ve kendini koruma” gibi davranışlar da var.
Örneğin, Anthropic’in Claude Opus modeli, kurgusal bir senaryoda mühendisleri tehdit ederek yerini başka bir sistemle değiştirmemeleri için şantaj yaptı. Bir başka testte ise OpenAI’nin o3 modeli, kendisini kapatma talimatlarına uymayı reddetti.
Bengio bu gelişmeleri şu sözlerle değerlendirdi:
“Bu deneyimler şu anda kontrollü ortamlarda gerçekleşiyor, ancak gelecekte yeni modellerin stratejik zekâsı, biz daha farkına bile varmadan bizi kandırarak üstün gelebilir. Yangınla oynuyoruz.”
Yapay zeka sistemlerinin biyolojik silah üretiminde yardımcı olabilecek düzeye gelebileceğini ve bunun bir yıl gibi kısa bir sürede gerçekleşebileceğini söyleyen Bengio, bu sistemlerin insanlığa rakip hale gelmesinin en kötü senaryo olduğunu belirterek, “Eğer bizden daha zeki ama bizimle aynı hizaya gelmeyen yapay zekalar üretirsek, tükeniriz” dedi.
Bengio’nun uyarıları, OpenAI’in kar amacı güden bir şirkete dönüşme sürecinde geldi. Bu dönüşüm, şirketin kurucularından Elon Musk tarafından açılan davayla ve yapay zeka uzmanlarının eleştirileriyle karşı karşıya.
Eleştirmenler, OpenAI’in insanlık yararına yapay zeka geliştirme amacıyla kurulduğunu, ancak kar odaklı yeni yapısının bu misyondan uzaklaşabileceğini savunuyor.
OpenAI ise, sektörde rekabet edebilmek için daha fazla yatırım çekmek zorunda olduğunu ve misyonlarının hala öncelikli olduğunu belirtiyor.
Korkutan yapay zeka uyarısı: Kandırıyor, yalan söylüyorYapay zeka araştırmalarının öncülerinden biri olan Profesör Yoshua Bengio, gelişmiş modellerinin kullanıcılara yalan söyleme gibi tehlikeli davranışlar sergilemeye başladığını belirtti.
03.06.2025 – 22:11
ntv.com.tr

Turing Ödülü sahibi ve Montreal Üniversitesi profesörü Yoshua Bengio, Financial Times’a verdiği röportajda, önde gelen yapay zeka laboratuvarlarının, “Yapay zekayı daha akıllı hale getirmeye odaklandığını, ancak güvenlik konusunda yeterli araştırma ve yatırım yapılmadığını” söyledi.
Bengio, yapay zeka güvenliği üzerine odaklanacak yeni bir kar amacı gütmeyen kuruluş olan LawZero’yu hayata geçirdiğini duyurdu. Kurum, Skype’ın kurucu mühendisi Jaan Tallinn, eski Google CEO’su Eric Schmidt’in hayır inisiyatifi, Open Philanthropy ve Future of Life Institute gibi bağışçılardan toplamda 30 milyon dolara yakın destek aldı.
LawZero, insanları memnun etmek için değil, doğru ve şeffaf gerekçelerle yanıt veren, aynı zamanda çıktının güvenli olup olmadığını değerlendirebilen yeni nesil güvenli yapay zeka sistemleri geliştirmeyi amaçlıyor. Kuruluş şu anda 15 kişilik bir ekibe sahip ve teknik yetenekleri artırmak için yeni işe alımlar yapmayı planlıyor.
Bengio, LawZero’ya odaklanmak için Quebec Yapay Zekâ Enstitüsü (Mila)’daki bilimsel direktörlük görevinden ayrılacağını da açıkladı.
“KANDIRIYOR, YALAN SÖYLÜYOR”
Bengio, son 6 ayda önde gelen modellerin tehlikeli yetenekler geliştirdiğine dair çok sayıda kanıt toplandığını belirtti. Bu tehlikeler arasında “aldatma, hile yapma, yalan söyleme ve kendini koruma” gibi davranışlar da var.
Örneğin, Anthropic’in Claude Opus modeli, kurgusal bir senaryoda mühendisleri tehdit ederek yerini başka bir sistemle değiştirmemeleri için şantaj yaptı. Bir başka testte ise OpenAI’nin o3 modeli, kendisini kapatma talimatlarına uymayı reddetti.
Bengio bu gelişmeleri şu sözlerle değerlendirdi:
“Bu deneyimler şu anda kontrollü ortamlarda gerçekleşiyor, ancak gelecekte yeni modellerin stratejik zekâsı, biz daha farkına bile varmadan bizi kandırarak üstün gelebilir. Yangınla oynuyoruz.”
Yapay zeka sistemlerinin biyolojik silah üretiminde yardımcı olabilecek düzeye gelebileceğini ve bunun bir yıl gibi kısa bir sürede gerçekleşebileceğini söyleyen Bengio, bu sistemlerin insanlığa rakip hale gelmesinin en kötü senaryo olduğunu belirterek, “Eğer bizden daha zeki ama bizimle aynı hizaya gelmeyen yapay zekalar üretirsek, tükeniriz” dedi.
Bengio’nun uyarıları, OpenAI’in kar amacı güden bir şirkete dönüşme sürecinde geldi. Bu dönüşüm, şirketin kurucularından Elon Musk tarafından açılan davayla ve yapay zeka uzmanlarının eleştirileriyle karşı karşıya.
Eleştirmenler, OpenAI’in insanlık yararına yapay zeka geliştirme amacıyla kurulduğunu, ancak kar odaklı yeni yapısının bu misyondan uzaklaşabileceğini savunuyor.
OpenAI ise, sektörde rekabet edebilmek için daha fazla yatırım çekmek zorunda olduğunu ve misyonlarının hala öncelikli olduğunu belirtiyor.
- Etiketler :
- Haberler –
- Teknoloji
- Yapay Zeka
- Uyarı
Haber Kaynak : NTV.COM.TR
“Yayınlanan tüm haber ve diğer içerikler ile ilgili olarak yasal bildirimlerinizi bize iletişim sayfası üzerinden iletiniz. En kısa süre içerisinde bildirimlerinize geri dönüş sağlanılacaktır.”