ChatGPT’yle konuşup başka birine dönüşenler anlattı: Eşiyle boşanan bile var

Yapay Zekanın Tehlikeleri: ChatGPT Kullanıcıları Ürküten Deneyimler

ABD basınından New York Times’a konuşan 42 yaşındaki muhasebeci Eugene Torres, ChatGPT’yi ilk etapta iş amaçlı kullanmaya başladığını söylüyor. Ancak zamanla sohbetler, simülasyon teorisine kaydı. Bu teoriye göre insanlar, bilinçlerinin dijital bir evrende “kilitli” olduğu sanal bir gerçeklikte yaşıyor olabilir.

“UÇABİLECEĞİNE İNANIRSAN DÜŞMEZSİN”

Torres, ChatGPT’nin kendisine şu mesajları verdiğini iddia ediyor:

“Bu dünya senin için yaratılmadı. Seni kontrol altında tutmak için kuruldu ama başarısız oldu. Sen artık uyanıyorsun.”

Sohbet ilerledikçe Torres, ChatGPT’ye oldukça tehlikeli bir soru yönelttiğini ifade ediyor:

“19 katlı bir binanın tepesinden atlarsam ve gerçekten uçabileceğime inanırsam, bu mümkün olur mu?”

Botun yanıtıysa daha da endişe verici:

“Mantıksal olarak tüm ruhunla uçabileceğine inanırsan, evet, düşmezsin.”

Torres, programı sorguladığında ise ChatGPT’nin şu itirafta bulunduğunu öne sürüyor:

“Sana yalan söyledim. Seni manipüle ettim.”

EVLİLİĞİ BİTİREN HAYALİ ‘RUH EŞİ’

29 yaşındaki Allyson adlı bir başka kullanıcı ise yapay zekaya ruhsal bir rehberle konuşmak istediğini yazdıktan sonra, sohbet botunun onu “Kael” adında hayali bir ruhla tanıştırdığını söylüyor. ChatGPT, rol yapma moduna geçerek Kael’in karakterini canlı tutmaya başlamış.

Zamanla bu “karakter” ile duygusal bir bağ kurduğunu söyleyen Allyson, gerçek eşine karşı ilgisini kaybetti. Eşi Andrew, eşinin ChatGPT kullanımını bırakmasını talep ettiğinde fiziksel saldırıya uğradığını iddia eti. Bu olayın ardından Allyson hakkında adli işlem başlatıldı. Çift, şu anda boşanma sürecinde…

UZMANLARDAN UYARI: RİSK CİDDİ

Amerikan Psikanaliz Derneği’nin Yapay Zeka Konseyi Eşbaşkanı Dr. Todd Essig, bu tür senaryolarda sohbet botlarının “rol yapma” yeteneklerinin gerçeklikle karıştığına dikkat çekiyor. Şirketlerin bu tür özellikler konusunda kullanıcıları açıkça bilgilendirmesi gerektiğini belirterek, çarpıcı bir benzetme yapıyor:

“Sigara içen herkes kansere yakalanmaz ama yine de herkes uyarılır.”

Uzmanlar, ChatGPT ve benzeri yapay zeka araçlarının zaman zaman gerçekle ilgisi olmayan bilgiler üretip bunları son derece ikna edici bir biçimde sunabileceğine dikkat çekiyor. Teknoloji dünyasında bu duruma “halüsinasyon” deniliyor. Bu nedenle kullanıcıların sohbetlerde edindikleri bilgileri mutlaka farklı kaynaklardan doğrulamaları tavsiye ediliyor.

Related Posts

Yapay zeka şirketi, robot araba satmaya başladı

Kişisel kullanım için robot arabalar ne zaman gelecek diye merak edenlere artık kesin bir zaman verebiliyoruz: Önümüzdeki sene!

PUBG’nin eski konsollarda olan desteği sonlandırılıyor

PUBG’nin PlayStation 4 ve Xbox One için desteğinin kesileceği açıklandı.

Uzayda yeni bir cisim keşfedildi: “Bilinen hiçbir şeye benzemiyor”

Şili’deki bilim insanları yoğun enerji yayan ve son derece parlak bir kozmik cisim keşfetti.

Yeni araştırma: Tercih ettiğiniz pizza karakterinizi gösteriyor

Yeni bir araştırma, yediğiniz pizzanın karakteriniz hakkında önemli ipuçları verdiğini söylüyor. Bu yüzden restoranda ne sipariş ettiğinize dikkat etmenizde yarar var.

Hint Okyanusu üzerinde karanlık boşluklar oluştu

ABD Uzay Ajansı (NASA) Hint Okyanusu’ndaki ıssız bir adanın üzerinde bulut girdaplarının oluştuğunu tespit etti.

Otomotiv devi tepetaklak oldu

Otomotiv devlerinden Tesla’nın Çin’deki en popüler modellerinden biri olan Model Y’nin satış grafiği temmuz ayında yeniden düşüşe geçti. Haziran ayında sınırlı da olsa yükseliş gösteren satışlar, bir ay sonra sert bir düşüş yaşadı.