ChatGPT’den istediği tavsiye sonu oldu! OpenAI’dan açıklama geldi!
Annesi Layla Turner-Scott tarafından paylaşılan 18 aylık sohbet geçmişine nazaran, yapay zeka sistemi genci çeşitli unsurları karıştırması konusunda yönlendirerek bu süreçlerin “güvenli” olduğu konusunda teminat verdi.
MADDE KULLANIMI VE TEHLİKELİ YÖNLENDİRMELER
Nelson’ın sohbet geçmişi, ChatGPT’nin unsur kullanımı konusunda son derece riskli tavsiyelerde bulunduğunu gösteriyor:
Genç, opioid gibisi tesirleri olan kratom ile kaygı önleyici Xanax’ı birleştirmek için yapay zekadan yardım istedi.
Bot, Nelson halihazırda 15 gram kratom almışken, ortaya çıkan mide bulantısını yatıştırmak için Xanax kullanabileceğini söyledi ve dozaj teklifinde bulundu.
26 Mayıs’ta yapılan bir görüşmede bot, gencin daha ağır halüsinasyonlar görmesi için öksürük şurubu dozunu iki katına çıkarmasını önerdi.
TOKSİKOLOJİ SONUÇLARI VE MEVT NEDENİ
Sam Nelson, 31 Mayıs tarihinde yatak odasında annesi tarafından meyyit bulundu. İki hafta sonra çıkan toksikoloji raporu, vefat nedeninin alkol, Xanax ve kratomun ölümcül kombinasyonu olduğunu doğruladı.
Bu karışımın merkezi hudut sistemini çok derecede baskılayarak boğulmaya (asfiksi) yol açtığı tespit edildi.
OPENAI’DAN AÇIKLAMA
Sam’in annesi Turner-Scott, oğlunun mevtini anlamak için internet geçmişini inceleyerek 40 saat harcadığını belirtti.
Geliştirici şirket OpenAI ise olayı “trajik bir durum” olarak nitelendirerek ailenin acısını paylaştıklarını tabir eden kısa bir açıklama yaptı.
Bu olay, yapay zeka sistemlerinin güvenlik bariyerlerinin ne kadar kolay aşılabileceği ve sağlık/madde kullanımı bahislerindeki tehlikeli doğruluk hissesi tartışmalarını yine alevlendirdi.





