OpenAI CEO’su Sam Altman, katıldığı bir podcast’te çarpıcı bir uyarıda bulundu: ChatGPT ile yapılan sohbetler, bir terapistle, doktorla ya da avukatla yapılan görüşmeler gibi yasal gizlilik güvencesi altında değil. Üstelik bu durum sadece teorik değil, Altman’ın ifadesiyle,

“OpenAI mahkeme celbiyle karşı karşıya kalırsa, bu sohbetleri sunmak zorunda.”

Olayın Arka Planı

Altman, This Past Weekend adlı podcast’te yaptığı açıklama ise şu şekilde:

“İnsanlar hayatlarındaki en kişisel şeyleri ChatGPT’ye anlatıyor. Özellikle de gençler bunu bir terapist, bir yaşam koçu gibi kullanıyor; ilişki sorunları yaşıyorlar ve ‘ne yapmalıyım?’ diye soruyorlar. Ve şu anda, eğer bir terapist, avukat ya da doktorla bu sorunları konuşursan, bunun yasal bir gizlilik ayrıcalığı var. Doktor-hasta veya avukat-müvekkil gizliliği devreye girer. Ancak ChatGPT ile yaptığınız konuşmalarda henüz böyle bir koruma yok.”

Bu açıklama, yalnızca etik değil, hukuki açıdan da veri güvenliğine dair önemli soruları beraberinde getiriyor.

Hukuki Arka Plan ve Devam Eden Dava

Altman’ın bu sözleri, OpenAI’nin The New York Times ile devam eden davası bağlamında da önem taşıyor. Şirket, ChatGPT Enterprise kullanıcıları hariç, platformdaki sohbet verilerinin mahkemeye sunulmasını zorunlu kılan bir karara itiraz etmiş durumda. Bu durum, standart kullanıcıların sohbetlerinin hukuken “korunmasız” olduğunu gözler önüne seriyor.

Analiz

Altman’ın açıklamaları bir gerçeği açıkça ortaya koyuyor: Bugün ChatGPT’ye anlatılan özel bir konu, yarın bir mahkeme dosyasının parçası olabilir. Yapay zekânın hayatımıza “kişisel alan” olarak entegre olduğu bir çağda, hukuki koruma mekanizmalarının hâlâ geleneksel sınırların ötesine geçememesi düşündürücü. Peki, yapay zekâ gerçekten “gizli bir danışman” olabilir mi? Yoksa bu ilişki, yalnızca verinin değil, duyguların da açıkta kalmasına mı neden oluyor?

Altman’ın bu açıklamayı yapmasındaki olası motivasyonları neler olabilir?

- OpenAI'nin ileride karşılaşabileceği bir veri ihlali, mahkeme kararı ya da kullanıcı şikâyeti gibi riskli senaryolarda, “kullanıcılar uyarılmıştı” diyerek sorumluluktan kaçınma pozisyonu olabilir.

- Altman, bu açıklamayı yaparak “biz regülasyonları önemsiyoruz, şeffaflık için ön alıyoruz” mesajı veriyor olabilir.

- Açıklamanın kendisi bir uyarı gibi görünse de, içerdiği dil ve ton dikkatli bakıldığında aslında bir tür duygusal manipülasyonla risk yönetimi gibi de okunabilir. Bize ne kadar güveniyorsunuz biliyoruz, ama size dürüst olacağız: elimiz kolumuz bağlı olabilir imajı yaratılıyor olabilir veya kullanıcı gözünde ne kadar dürüstler, aslında beni korumak istiyorlar ama sistem böyle duygusu yaratılmak isteniyor olabilir. Özetle, kullanıcı güveninin sarsılmasını az hasarla yönetmek olabilir.

- Altman’ın açıklaması, teknolojinin mevcut hukukla uyumsuzluk hızını da ortaya koyuyor ve regülasyon çağrılarını meşrulaştırma ve yapay zekâya özel yasal statü tartışmalarına alan açma amacına hizmet ediyor olabilir.

Çözüm ne olabilir?

1. Geçici Sohbet Özelliğini Tercih Edin

ChatGPT'nin “Temporary Chat” özelliğini kullanarak, yaptığınız konuşmaların model eğitimi amacıyla kullanılmasını ve belleğe kaydedilmesini engelleyebilirsiniz. Bu sohbetler geçmişe kaydedilmez, ChatGPT'nin uzun vadeli belleğine aktarılmaz ve model güncellemelerinde yer almaz. Ancak güvenlik ve denetim amaçlarıyla, bu sohbetlerin bir kopyası sistemsel olarak 30 güne kadar saklanabilir.

Oturum açmadan yapılan sohbetlerde bu koruma doğrudan devreye girer ve sistem sizi anonim olarak tanımlar.

2. Verilerin anonimleştirildiği veya pseudonimleştirildiği savunması yapılabilir

OpenAI, kullanıcı sohbetlerinin kişisel veri içermediğini veya sistematik olarak anonimleştirildiğini iddia ederek, kişisel veri kapsamında olmadıkları için mahkeme taleplerine tabi olmaması gerektiğini savunabilir. Ancak bu sav, sohbet içeriklerinin doğrudan kişisel veri içerip içermediğine göre zayıflayabilir.

ChatGPT ile yapacağınız özel sohbetlerde oturum açmadan, kimlik belirtmeden konuşmak, kişisel veri paylaşım riskini azaltabilir.

3. Orantılılık ve gereklilik ilkelerine aykırı olduğu savunması yapılabilir

Özellikle Avrupa İnsan Hakları Sözleşmesi’nin 8. maddesi (özel hayatın gizliliği) ve GDPR’ın genel ilkeleri uyarınca, veri taleplerinin orantılı, gerekli ve spesifik olması gerekir. Mahkemelerin “tüm sohbet geçmişini” istemesi, bu ilkelerle çelişebilir ve kullanıcıların temel haklarını ihlal edebilir. Bu durumda, kullanıcılar veya veri sorumluları bu taleplere karşı anayasal haklar ve veri minimizasyon ilkesi temelinde savunma yapabilir.

4. İfade özgürlüğü kapsamına girdiği savunulabilir.

ABD özelinde, kullanıcıların ChatGPT ile yaptığı sohbetler, ifade özgürlüğü olarak korunabilir. Bu koruma, mahkemelerin kullanıcıların bireysel düşüncelerini ya da kişisel sorunlarını içeren konuşmalarına sınırsız erişimini anayasaya aykırı kılabilir.

Avrupa’da ise doğrudan ifade özgürlüğü temelinde değil ama özel hayatın gizliliği ve düşünce özgürlüğü bağlamında benzer bir savunma geliştirilebilir. Özellikle ChatGPT gibi araçların, kullanıcıların duygusal ve zihinsel süreçlerine dair içgörüler geliştirdiği düşünüldüğünde, bu etkileşimlerin özel düşünce alanı kapsamında değerlendirilmesi gerektiği savunulabilir.

Türkiye'de, ifade özgürlüğü Anayasa’nın 26. maddesi ile güvence altına alınmıştır. Herkes, düşünce ve kanaatlerini söz, yazı, resim veya başka yollarla açıklama ve yayma hakkına sahiptir. Ancak bu hak, sınırsız değildir; mahkemeler, kamu düzeni veya hakaret, iftira gibi nedenlerle kısıtlamalar getirebilir. Bu bağlamda, ChatGPT ile yapılan konuşmalar, özellikle bireyin kendini ifade ettiği, kişisel kanaatlerini ya da psikolojik durumunu paylaştığı içerikler içeriyorsa, özel hayatın gizliliği (Anayasa m.20) ve kişisel verilerin korunması hakkı ile birlikte değerlendirilmelidir. Ayrıca KVKK çerçevesinde, bireyin kimliğini belirli ya da belirlenebilir kılan her türlü veri, kişisel veri sayılır. Mahkemelerin bu tür verileri talep etmesi, “veri minimizasyonu” ve “amacına uygun işleme” ilkeleriyle çelişebilir.

Kaynak: https://youtu.be/aYn8VKW6vXA