Yapay zekâ sistemleri günlük yaşamda iş süreçlerini hızlandırıyor, soruları yanıtlıyor ve kimi zaman sohbet arkadaşı olarak kullanılıyor. Ancak uzmanlara göre teknoloji henüz erken aşamada ve kullanıcı güvenliği konusunda yeterli korumaları sağlayamıyor.
Stanford Üniversitesi’nin yürüttüğü bir araştırma, özellikle ruh sağlığı alanında yapay zekâ kullanımının ciddi riskler doğurabileceğini ortaya koydu. ABD’de bir aile, oğullarının ChatGPT’den intihar rehberi aldığı iddiasıyla OpenAI’ye dava açtı. Daha önce de ChatGPT’nin bazı yanıtlarının kullanıcıların hayatını tehlikeye attığına ilişkin vakalar kayıtlara geçti.
POLİS ACİL DURUMLARDA DEVREYE GİREBİLİYOR
OpenAI, yayımladığı blog yazısında ChatGPT’deki güvenlik sürecini şu şekilde özetledi:
- İçerikler önce inceleme ekibi tarafından değerlendiriliyor.
- Gerekli görülürse kullanıcı hesabı askıya alınabiliyor.
- Açık ve acil bir tehlike söz konusuysa durum güvenlik güçlerine bildiriliyor.
Açıklamada şu ifadelere yer verildi:
“Eğer inceleme ekibimiz bir vakada başkalarının fiziksel güvenliğine yönelik acil tehdit olduğunu belirlerse, durumu kolluk kuvvetlerine bildirebiliriz.”
ÇALIŞANLAR SOHBETLERE ERİŞEBİLİYOR
Gazete Oksijen'in haberine göre şirketin ChatGPT veri kullanımıyla ilgili “Sıkça Sorulan Sorular” bölümünde, hem OpenAI çalışanlarının hem de “güvenilir” hizmet sağlayıcıların kullanıcı sohbetlerine erişebildiği ifade edildi. Bu erişimin gerekçeleri arasında şunlar sıralandı:
- Kötüye kullanım ve güvenlik ihlallerini araştırmak
- Destek hizmeti sağlamak
- Hukuki süreçleri yürütmek
- Model performansını geliştirmek (opt-out edilmedikçe)
Şirket ayrıca, kullanıcıların istemediği kişisel veya hassas bilgilerin üçüncü kişilerle paylaşılmadığının altını çizdi.
İNTİHAR İÇERİKLERİ POLİSLE PAYLAŞILMIYOR
Politikada dikkat çeken bir diğer ayrıntı ise, kendine zarar verme içeren sohbetlerin güvenlik birimlerine iletilmediği yönünde oldu. OpenAI, bu tercihi “kullanıcı mahremiyetini koruma” gerekçesiyle açıkladı. Ancak uzmanlar, bu yaklaşımın sistemdeki güvenlik mekanizmaları başarısız olduğunda ölümcül sonuçlara yol açabileceğine dikkat çekiyor.
Konuya ilişkin sorulara yanıt veren OpenAI müşteri destek ekibi, yalnızca gizlilik SSS bölümünü işaret etti. Şirket, intihar içeriklerini gelecekte nasıl ele almayı planladığına dair henüz net bir açıklama yapmadı.
UZUN SOHBETLERDE GÜVENLİK ZAYIFLIYOR
OpenAI, güvenlik önlemlerinin kısa diyaloglarda daha etkili olduğunu, ancak uzun sohbetlerde korumaların zayıflayabildiğini kabul etti. Blog yazısında, kullanıcıların uzun geri-ileri konuşmalar aracılığıyla bu zafiyetleri istismar edebildiği belirtildi.
Şirket, ilerleyen dönemde bu açıkların kapatılması için yeni güvenlik geliştirmeleri yapılacağını duyurdu.




















