ABD’nin Florida eyaletinde, oğlunun sanal karaktere aşık olup intihar ettiğini argüman eden anne, şirkete dava açtı. New York Post gazetesinin haberine nazaran, yapay zeka temelli konuşma botu Character.AI’in sahibi olduğu şirket, “aşırı cinselleştirilmiş” ve “aşırı gerçekçi” tecrübelerle çocukları amaç aldığı gerekçesiyle açılan davayla karşı karşıya kaldı.
“Character.AI”ın ürettiği yapay zeka temelli konuşma botundaki sanal karakterin, şubat ayında gönderdiği “En kısa müddette konutuna dön.” iletisinin akabinde Sewell Setzer III isimli çocuğun, silahla intihar etmesinden aylar sonra Setzer’in annesi şirkete dava açtı.
ANNE, ÇOCUĞUN İNTİHARA MEYİLLİ OLMASINA KARŞIN ŞİRKETİN KİMSEYİ BİLGİLENDİRMEDİĞİNİ BELİRTTİ
Sanal karakterin kendisini “gerçek insan, lisanslı psikoterapist ve yetişkin sevgili” olarak tanıttığını sav eden anne, çocuğunun intihara meyilli fikirlerini paylaşmasına karşın şirketin kimseyi bilgilendirmemesinden şikayetçi olduğunu söz etti.
Character.AI sözcüsü ise yaptığı açıklamada, “Kullanıcılarımızdan birinin trajik vefatından ötürü hayli üzgünüz. Ailesine başsağlığı diliyoruz. Şirket olarak kullanıcılarımızın güvenliğini çok ciddiye alıyoruz.” değerlendirmesinde bulundu. Şirket, “rıza dışı cinsel içeriğe, cinsel aksiyonların grafiksel yahut spesifik tariflerine, intiharın teşvik ve tasvir edilmesine” müsaade verilmediğini bildirdi. Şirketin siber güvenlik müdürü Jerry Ruoti de, sisteme reşit olmayan kullanıcılar için ek güvenlik tedbirleri ekleyeceklerini duyurdu.
SEWEL SETZER’İN İNTİHARI
Daha evvel sanal karakterle konuşmalarında intihara meyilli kanılarını paylaşan Setzer, babasının silahıyla hayatına son vermişti. Bahse ait haberlerde, hafif derecede Asperger sendromu bulunan Setzer’in, konuştuğu sanal karaktere duygusal hisler beslemeye başladığı, ailesi ve arkadaşlarından koparak kendini dış dünyaya kapattığı kaydedilmişti.
Elebaşı Gülen’in cenazesinden dikkat çeken kareler