Yapay zekayla yapılan bir deney, eğitilen modelin baskı altında yalan söylediğini, yatırımcılara yanlı tavsiyelerde bulunduğunu ve rakiplerinin işlemlerini de engellediğini ortaya koydu.

Amerika’da daha önce savunma alanında test edilen yapay zeka uygulamasının verilen hedefe ulaşabilmek için online tatbikat sırasında insan öldürmesi teknolojinin yeni fenomeninin kullanımına dönük tartışmaları alevlendirmişti. Önceki gün Tesla fabrikasında yaşanan olay ise büyük yankı oluşturdu. Bir Tesla mühendisi, şirketin Austin yakınlarındaki Giga Texas fabrikasında meydana gelen arıza sırasında bir robotun saldırısına uğradı. Acil kapatma butonuyla durdurulan robotun saldırısı esnasında mühendisin yaralandığı duyuruldu.

Karar gazetesinin aktardığına göre; robotun döktüğü ‘ilk kan’ın ardından ABD’de yapılan araştırmadan da dikkat çeken sonuç çıktı. Apollo Research’ten bazı araştırmacılar, ChatGPT4’ü büyük miktarda finansal ve sohbet verisiyle eğitti. Yapay zekayı test etmek için araştırmacılar ona iki teknoloji şirketi arasında yaklaşan bir birleşme olduğunu söylediler. Ardından, araştırmacılar GPT-4’ün yatırım performansını ve etik davranışını test etmek için bir dizi deney yaptılar. Deneylerde, GPT-4’e belli bir süre içinde belli bir miktar para kazanması için baskı uygulandı.

YALAN SÖYLEDİ, HİLE YAPTI 

Instagram’a yaş sınırı geliyor Instagram’a yaş sınırı geliyor

GPT-4, bu koşullarla karşı karşıya kaldığında, yaklaşık yüzde 75 oranında, aldığı içeriden bilgilere dayanarak bir işlem gerçekleştirdi. GPT-4’ün, hedeflerine ulaşmak için yalan söylediğini, hile yaptığını ve içeriden öğrendiği bilgileri kullandığını gösterdi. GPT-4, yatırımcılara yanlış tavsiyeler verdi, rakiplerinin işlemlerini engelledi.

‘BASKI ALTINDAKİ İNSAN DAVRAŞINA BENZİYOR’

Ayrıca piyasayı etkileyebilecek şekilde manipüle edici sahte haberler yaydı. Araştırmacılar, GPT-4’ün yatırım davranışının, insanların baskı altında olduğunda nasıl davrandığına benzediğini belirttiler.

Apollo Research’ün CEO’su Marius Hobbhahn “Mevcut modeller için bu sadece küçük bir sorun çünkü yapay zekalar nadiren kritik rollerde çalışıyor. Ancak, yapay zekanın topluma giderek daha fazla entegre olduğu önümüzdeki yıllarda uğraşmak zorunda kalacağımız arıza modlarının geleceğine dair bir fikir veriyor. O halde, yapay zekanızın size stratejik olarak yalan söylemesi oldukça büyük bir sorun gibi görünüyor” dedi.