Günlük hayatında ChatGPT'den faydalanan kaç kişiyiz? İtalya’nın veri koruma otoritesi (Garante), OpenAI’ye ChatGPT’nin kullanıcı verilerini işleme yöntemleri nedeniyle 15 MİLYON EURO rekor ceza kesti. Bu durum, GDPR’nin yapay zeka teknolojilerine etkisini bir kez daha gözler önüne seriyor. Peki, bu kararın arkasında hangi ihlaller var ve kullanıcılar bundan ne öğrenmeli?
Konu Özeti:
1. İhlalin Tespit Edilmesi ve Cezanın Gerekçesi: İtalya'nın veri koruma otoritesi Garante, ChatGPT'nin geliştiricisi OpenAI'ye, Kişisel Verilerin Korunması Genel Tüzüğü'ne (GDPR) aykırı işlem yaptığı gerekçesiyle 15 milyon Euro ceza kesti.
2. Çocukların Korunması ve Yaş Doğrulama Eksiklikleri: Garante, ChatGPT'de yaş doğrulama mekanizmalarının olmaması sebebiyle, 13 yaş altı çocukların uygunsuz içeriklere maruz kalma riskine dikkat çekti.
İhlaller şu noktalarda yoğunlaştı:
- Kullanıcıların kişisel bilgilerinin ChatGPT’nin eğitimi için yetersiz yasal dayanakla işlenmesi.
- Kullanıcılara yönelik bilgi şeffaflığı ve ilgili yükümlülüklerin yerine getirilmemesi.
- 2023 Mart ayında gerçekleşen bir güvenlik ihlalinin yetkililere bildirilmemesi.
Ek Yaptırımlar:
Cezaya ek olarak OpenAI'ye, altı ay boyunca şu konularda bir iletişim kampanyası yürütmesi zorunlu kılındı:
- ChatGPT'nin veri toplama süreçleri ve modeli eğitmek için kullanıcı ve kullanıcı olmayan bilgilerin nasıl kullanıldığı.
- Kullanıcıların, GDPR kapsamında veri itirazı, düzeltme veya silme haklarını nasıl kullanabileceği.
OpenAI'nin Tepkisi ve EDPB Görüşü:
- OpenAI, cezayı orantısız bulduğunu ve temyize gitmeyi planladığını belirtti. Ceza, OpenAI'nin İtalya'daki gelirinin yaklaşık 20 katı olarak tanımlandı.
- Avrupa Veri Koruma Kurulu (EDPB), bir yapay zeka modelinin kişisel verileri anonimleştirilerek işlemesi durumunda, GDPR’nin bu işlemleri kapsamayabileceğini ifade etti. Ancak, anonimleştirme sonrası yapılan her türlü veri işleme işlemi GDPR'ye tabi olmaya devam edecektir.
- Veri Transferleri ve Uluslararası Uyumluluk: EDPB, Avrupa dışına veri transferi konusundaki yönergeleri güncelledi. Bu kapsamda, üçüncü ülke otoritelerinin kararlarının otomatik olarak tanınamayacağı, her veri aktarımının GDPR ile uyumlu olması gerektiği vurgulandı.
Sonuç:
Garante’nin kararı, yapay zeka modellerinin geliştirilmesinde GDPR’nin sıkı şekilde uygulanacağını ve kullanıcı haklarının korunmasına yönelik önlemlerin artırılacağını gösteriyor. OpenAI, yapay zeka teknolojilerinde şeffaflık ve kullanıcı gizliliğini daha fazla önceliklendirmek zorundadır.
Kaynak: https://thehackernews.com/2024/12/italy-fines-openai-15-million-for.html