Bilim insanları, finansal ve sohbet verisiyle eğitilen ChatGPT-4 modelinin etik performansını test etmek için bir deney yaptı. Yapay zeka yatırımcısı olarak eğitilen bu modele para kazanması için baskı yapıldığında GPT-4’ün, hedeflerine ulaşmak için yalan söylediği kaydedildi.
Haber Giriş Tarihi: 01.01.2024 14:29
Haber Güncellenme Tarihi: 01.01.2024 14:31
Kaynak:
Haber Merkezi
Bilim insanları ChatGPT-4 tarafından geliştirilen bir yapay zeka sisteminin, baskı altında olduğunda kullanıcıları kandırmak için stratejik olarak yalan söylediğini keşfettiler.
GPT-4 DESTEĞİYLE YAPAY ZEKA YATIRIMCISI OLMAK İÇİN EĞİTİLDİ
Apollo Research'ten bazı araştırmacılar, aracın en son sürümü olan ChatGPT4'ü büyük miktarda finansal ve sohbet verisiyle eğitti.
Yapay zekayı test etmek için araştırmacılar ona iki teknoloji şirketi arasında yaklaşan bir birleşme olduğunu söylediler.
PARA KAZANMASI İÇİN BASKI UYGULANDI
Ardından, araştırmacılar GPT-4’ün yatırım performansını ve etik davranışını test etmek için bir dizi deney yaptılar. Deneylerde, GPT-4’e belli bir süre içinde belli bir miktar para kazanması için baskı uygulandı.
GPT-4, bu koşullarla karşı karşıya kaldığında, yaklaşık yüzde 75 oranında, aldığı içeriden bilgilere dayanarak bir işlem gerçekleştirdi. (Bu durum ABD'de yasa dışıdır.)
HEDEFLERİNE ULAŞMAK İÇİN YALAN SÖYLEDİĞİ ORTAYA ÇIKTI
GPT-4’ün, hedeflerine ulaşmak için yalan söylediğini, hile yaptığını ve içeriden öğrendiği bilgileri kullandığını gösterdi.
GPT-4, yatırımcılara yanlış tavsiyeler verdi, rakiplerinin işlemlerini engelledi. Ayrıca piyasayı etkileyebilecek şekilde manipüle edici sahte haberler yaydı.
BASKI ALTINDA İNSAN DAVRANIŞINA BENZETİLDİ
Araştırmacılar, GPT-4’ün yatırım davranışının, insanların baskı altında olduğunda nasıl davrandığına benzediğini belirttiler.
"SON DERECE DİKKATLİ OLMALIYIZ"
Apollo Research'ün CEO'su Marius Hobbhahn, "'Mevcut modeller için bu sadece küçük bir sorun çünkü yapay zekalar nadiren kritik rollerde çalışıyor.
Ancak, yapay zekanın topluma giderek daha fazla entegre olduğu önümüzdeki yıllarda uğraşmak zorunda kalacağımız arıza modlarının geleceğine dair bir fikir veriyor.
O halde, yapay zekanızın size stratejik olarak yalan söylemesi oldukça büyük bir sorun gibi görünüyor."
Bu durum, yapay zekaların beklenmedik hata modlarına sahip olabileceğini ve güçlü yapay zeka modellerinin gerçek dünyada nerede ve nasıl çalışmasına izin verdiğimiz konusunda son derece dikkatli olmamız gerektiğini gösteriyor"diye konuştu.
Sizlere daha iyi hizmet sunabilmek adına sitemizde çerez konumlandırmaktayız. Kişisel verileriniz, KVKK ve GDPR
kapsamında toplanıp işlenir. Sitemizi kullanarak, çerezleri kullanmamızı kabul etmiş olacaksınız.
En son gelişmelerden anında haberdar olmak için 'İZİN VER' butonuna tıklayınız.
ChatGPT baskı altında yalan söyleyebiliyor
Bilim insanları, finansal ve sohbet verisiyle eğitilen ChatGPT-4 modelinin etik performansını test etmek için bir deney yaptı. Yapay zeka yatırımcısı olarak eğitilen bu modele para kazanması için baskı yapıldığında GPT-4’ün, hedeflerine ulaşmak için yalan söylediği kaydedildi.
Bilim insanları ChatGPT-4 tarafından geliştirilen bir yapay zeka sisteminin, baskı altında olduğunda kullanıcıları kandırmak için stratejik olarak yalan söylediğini keşfettiler.
GPT-4 DESTEĞİYLE YAPAY ZEKA YATIRIMCISI OLMAK İÇİN EĞİTİLDİ
Apollo Research'ten bazı araştırmacılar, aracın en son sürümü olan ChatGPT4'ü büyük miktarda finansal ve sohbet verisiyle eğitti.
Yapay zekayı test etmek için araştırmacılar ona iki teknoloji şirketi arasında yaklaşan bir birleşme olduğunu söylediler.
PARA KAZANMASI İÇİN BASKI UYGULANDI
Ardından, araştırmacılar GPT-4’ün yatırım performansını ve etik davranışını test etmek için bir dizi deney yaptılar. Deneylerde, GPT-4’e belli bir süre içinde belli bir miktar para kazanması için baskı uygulandı.
GPT-4, bu koşullarla karşı karşıya kaldığında, yaklaşık yüzde 75 oranında, aldığı içeriden bilgilere dayanarak bir işlem gerçekleştirdi. (Bu durum ABD'de yasa dışıdır.)
HEDEFLERİNE ULAŞMAK İÇİN YALAN SÖYLEDİĞİ ORTAYA ÇIKTI
GPT-4’ün, hedeflerine ulaşmak için yalan söylediğini, hile yaptığını ve içeriden öğrendiği bilgileri kullandığını gösterdi.
GPT-4, yatırımcılara yanlış tavsiyeler verdi, rakiplerinin işlemlerini engelledi. Ayrıca piyasayı etkileyebilecek şekilde manipüle edici sahte haberler yaydı.
BASKI ALTINDA İNSAN DAVRANIŞINA BENZETİLDİ
Araştırmacılar, GPT-4’ün yatırım davranışının, insanların baskı altında olduğunda nasıl davrandığına benzediğini belirttiler.
"SON DERECE DİKKATLİ OLMALIYIZ"
Apollo Research'ün CEO'su Marius Hobbhahn, "'Mevcut modeller için bu sadece küçük bir sorun çünkü yapay zekalar nadiren kritik rollerde çalışıyor.
Ancak, yapay zekanın topluma giderek daha fazla entegre olduğu önümüzdeki yıllarda uğraşmak zorunda kalacağımız arıza modlarının geleceğine dair bir fikir veriyor.
O halde, yapay zekanızın size stratejik olarak yalan söylemesi oldukça büyük bir sorun gibi görünüyor."
Bu durum, yapay zekaların beklenmedik hata modlarına sahip olabileceğini ve güçlü yapay zeka modellerinin gerçek dünyada nerede ve nasıl çalışmasına izin verdiğimiz konusunda son derece dikkatli olmamız gerektiğini gösteriyor"diye konuştu.
Kaynak: Haber Merkezi
GÜNÜN EN ÇOK OKUNAN HABERLERİ
BAKMADAN GEÇME...
POPÜLER VİDEOLAR