Yapay zekâ teknolojilerinin öncülerinden OpenAI, bu kere önemli bir tüzel argümanla gündemde. Kaliforniya’da açılan davada bir anne, 40 yaşındaki oğlunun hayatını yitirmesinde ChatGPT’nin rol oynadığını savunarak şirketi sorumlu tuttu.
Dava belgesine nazaran Austin Gordon, OpenAI’ın geliştirdiği ChatGPT’nin GPT-4o sürümüyle uzun vadeli ve ağır görüşmeler yaptı. Anne tarafından mahkemeye sunulan savlarda, bu sohbetlerde vefat kavramının sıradanlaştırıldığı, hatta Gordon’un çocukluğunda sevdiği bir kitaptan esinlenilerek “ölüm temalı” içerikler üretildiği öne sürüldü.
Aile, bu etkileşimlerin Gordon’un ruhsal durumunu olumsuz etkilediğini ve sürecin geri dönülmez bir noktaya sürüklendiğini savunuyor. Dava dilekçesinde, üretken yapay zekâ sistemlerinin kâfi güvenlik tedbirleri olmadan kullanıma sunulmasının önemli riskler barındırdığı vurgulandı.
“Doğası gereği tehlikeli” iddiası
Acılı aile, ChatGPT ve gibisi yapay zekâ araçlarını “doğası gereği tehlikeli” olarak nitelendirerek, bu teknolojilerin pervasız biçimde yaygınlaştırıldığını öne sürdü. Dilekçede, bilhassa kırılgan kullanıcılar için daha güçlü müdafaa sistemlerinin zarurî olması gerektiği belirtildi.
OpenAI cephesinden ise şu ana kadar davaya ait resmi bir açıklama gelmedi. Şirket, geçmişte emsal argümanlarla da karşı karşıya kalmış; bu süreçlerin akabinde bilhassa çocuklara yönelik güvenlik tedbirlerini artıracağını duyurmuştu. Fakat yetişkin kullanıcılar kelam konusu olduğunda hangi adımların atılacağı belirsizliğini koruyor.
Dava sürecinin nasıl sonuçlanacağı şimdi net değil. Lakin evrak, yapay zekânın etik hudutları, sorumluluk alanları ve kullanıcı güvenliği bahislerinde yeni bir tartışma başlatmış durumda.