Yapay zekâ not alma araçları, modern iş süreçlerinde giderek daha fazla tercih edilen teknolojiler arasında yer almaktadır. Bu araçlar, toplantılardan alınan verimliliği artırma, çalışanların odaklanmasını sağlama ve kapsayıcı bir çalışma ortamı oluşturma gibi önemli faydalar sunmaktadır. Ancak, bu avantajlar beraberinde veri gizliliği, güvenlik ve etik sorunlara ilişkin bir dizi riski de getirmektedir. Etkili bir şekilde kullanılması için, bu teknolojilere yönelik risklerin doğru bir şekilde değerlendirilmesi ve şirketlerin gizlilik politikalarına uygun bir yönetim planının oluşturulması büyük önem taşımaktadır.

1. Yapay Zekâ Not Alma Uygulamaları: Riskler

Aşağıda detaylı açıklanan riskler, yapay zekâ not alma uygulamalarının kullanımında dikkatli bir değerlendirme yapılmasını ve etkin güvenlik, etik ve politika önlemlerinin uygulanmasını gerektirir.

1.1. Veri İhlali ve Gizlilik Riskleri

Yapay zekâ not alma uygulamaları, ticari sırlar, ticari fikri mülkiyet, çalışanların özel kişisel bilgileri veya müşteri bilgileri gibi hassas verileri yanlışlıkla silebilir veya üçüncü taraflara ifşa edebilir.

Verilerin sunucularda depolanması ve yetkisiz kişilerin erişimine açık hale gelmesi, önemli bir güvenlik riski doğurur.

1.2. Siber Güvenlik Tehditleri

Not alma uygulamaları ve verilerin saklandığı sunucular, bilgisayar korsanlarının saldırılarına maruz kalabilir. Bu durum veri sızıntısına neden olabilir ve şirketlerin bilgileri üzerindeki kontrolü kaybetmesine yol açabilir. Bunun sonucunda ciddi etik ve yasal sorunlar ortaya çıkabilir.

1.3. Bağlam Eksikliği ve Yanlış Anlamalar

Yapay zekâ, ses tonları, deyimler veya kültürel ifadeler gibi insan iletişiminin nüanslarını algılayamayabilir. Bağlamın hayati önem taşıdığı durumlarda, yapay zekâ not alıcılarının yanlış anlamalara ve bağlam dışı yorumlara neden olma riski vardır.

Konuşmacı aksanlarının veya deyimlerinin doğru anlaşılmaması, ayrımcılık davalarına yol açabilir.

1.4. Hesap Verebilirlik Eksikliği

Yapay zekâ tarafından üretilen çıktıların doğruluğu, insan denetimini ve sorumluluğunu gerektirir. İçeriğin sahiplenilmemesi, dezenformasyona ve yanlış karar alma süreçlerine neden olabilir.

1.5. Çalışan Mahremiyeti ve Etik Sorunlar

Yapılan anketler, toplantılardaki konuşmaların not alınmasının çalışanlar üzerinde gözetlenme hissi yarattığını ve işyerinde etik kaygılar doğurduğunu göstermektedir.

Çalışanların konuşmalarda daha az açık olmaları, bilginin serbest akışını engelleyebilir ve toplantıların verimliliğini düşürebilir.

1.6. Verilerin Yeniden Kullanımı ve Gizlilik

Bazı yapay zekâ not alma araçları, kullanıcıların oluşturduğu transkripsiyonları ürün geliştirme amacıyla kullanabilir. Bu durum, gizlilik ve düzenleyici uyumluluk açısından sorunlara yol açabilir. Kullanıcılar, araçların topladığı bilgilerin başka amaçlarla kullanılıp kullanılmadığını araştırmalıdır.

1.7. Kullanım Politikaları ve Ekiplere Özel Riskler

Yapay zekâ araçlarının kullanımına yönelik politikalar belirlenmeli ve hangi ekiplerin bu araçları kullanabileceği netleştirilmelidir.

Hukuk ekiplerinin kullanımı, avukat-müvekkil ayrıcalığını; İSG ekiplerinin kullanımı ise çalışanların sağlık bilgilerini riske atabilir. Yönetim, muhasebe, strateji ve müşteri hizmetleri ekipleri gibi alanlarda da benzer riskler bulunmaktadır.

1.8. Takvim ve Günlük Bilgilerinin Açığa Çıkması

Not alma uygulamaları, kullanıcının takvimindeki istemsiz verilere erişebilir ve bu bilgiler veri ihlali durumunda kamuya sızabilir.

1.9. Yapay Zekâ Kararlarının Denetim Eksikliği

İnsan denetiminden yoksun yapay zekâ kullanımı, çeşitli risklere yol açabilir:

- Zehirli İçerik Üretimi ve Güvenlik Açıkları: Yapay zekâ, kötü niyetli girişimlere açık olabilir ve hızlı enjeksiyon saldırılarıyla yanlış içerik üretebilir.

- Önyargı ve Ayrımcılık Riski: Yapay zekâ tarafından üretilen çıktılar, önyargılı veya ayrımcı yaklaşımlara neden olabilir. Eğitim verilerinin manipüle edilmesi durumunda “veri zehirlenmesi” de ortaya çıkabilir.

- Karar Süreçlerindeki Şeffaflık Eksikliği: Bazı yapay zekâ sistemlerinin "kara kutu" niteliği, alınan kararların veya üretilen çıktıların nasıl ortaya çıktığını anlamayı zorlaştırır.

- Hatalı Bilgi ve Yanlış Yorumlama: Yapay zekâ, yanlış bilgi üretebilir veya konuları hatalı şekilde yorumlayarak karar süreçlerini olumsuz etkileyebilir.

2. Yapay Zekâ Not Alma Araçları İçin Tavsiyeler

Aşağıda detaylı belirtilen tavsiyelerin uygulanması, yapay zekâ araçlarının kullanımını daha güvenli, yasalara uygun ve etkili hale getirecektir

2.1. Erişim Kontrolü

Toplantı kaydı ve notlarının kimler tarafından erişilebileceği açıkça belirlenmeli ve yetkisiz erişimi önlemek için gerekli önlemler alınmalıdır.

2.2. Güvenlik Standartlarının Sağlanması

Gelişmiş şifreleme standartlarına ve güçlü gizlilik önlemlerine sahip bir yapay zekâ aracı tercih edilmelidir.

2.3. Gizlilik Yönetim Planı

Şirketin gizlilik, siber güvenlik ve bilgi teknolojisi politikalarına uygun bir gizlilik yönetim planı oluşturulmalıdır. Bu plan, politikaların düzenli gözden geçirilmesini içermeli ve çalışanlara bu politikalar hakkında kapsamlı eğitim verilmelidir.

2.4. Veri Koruma Etki Değerlendirmesi

Yapay zekâ araçlarının kullanımına başlamadan önce, veri koruma etki değerlendirmesi yapılmalı ve potansiyel riskler analiz edilmelidir.

2.5. Veri Saklama ve Silme Politikası

Toplantı kaydı ve notlarının saklama süresi net bir şekilde belirlenmeli, silme işlemleri düzenli olarak kontrol edilmelidir.

2.6. Onay ve Bilgilendirme Süreçleri

İlgili mevzuat kapsamında, toplantıya katılan kişiler kaydın alınacağı konusunda bilgilendirilmeli ve onayları alınmalıdır. Tüm katılımcıların açık rızası olmadan toplantının kaydedilmesi etik ve yasal sorunlar yaratabilir.

2.7.  Kullanım Kısıtlamaları ve Politika Uyumu

Yapay zekâ not alıcılarının hangi toplantılarda kullanılabileceği, önceden belirlenen politikalarla sınırlandırılmalıdır.

- Örneğin: Çalışan performansı, ticari sırlar, müşteri bilgileri, iş stratejileri, finansal sorunlar, ürün geliştirme veya hassas tıbbi bilgiler gibi konuların tartışıldığı toplantılarda yapay zekâ not alıcılarının kullanımı uygun değildir.

- Toplantı gündemleri önceden belirlenerek kullanım amacı daha net hale getirilmelidir.

3. Yapay Zekâ Not Alma Araçlarının Faydaları

Aşağıda detaylı belirtilen faydalar, yapay zekâ araçlarının sadece verimliliği artırmakla kalmayıp, aynı zamanda daha kapsayıcı ve erişilebilir bir iş ortamı yaratma çabalarına da katkı sağladığını göstermektedir.

3.1. Hızlı ve Anında Not Alma

Yapay zekâ araçları, toplantı sırasında anında not alabilir ve sonuçları hızla üretebilir. Bu, zaman tasarrufu sağlayarak toplantının verimliliğini artırır.

3.2. Odaklanmayı Artırma

Yapay zekâ not alıcılarının kullanılması, çalışanların not tutma sorumluluğundan kurtulmasını sağlar. Bu durum, çalışanların toplantının ana hedeflerine daha iyi odaklanmalarına ve gerektiğinde kaydedilen notları gözden geçirmelerine imkân tanır.

3.3. Daha Kapsayıcı Bir Çalışma Ortamı Sağlama

Yapay zekâ not alma araçları, kapsayıcılık ve erişilebilirlik açısından önemli katkılar sunar:

- Görme, işitme veya diğer engelleri bulunan çalışanlar için gerçek zamanlı metin sağlama olanağı sunar.

- Toplantı belgelerine görsel, yazılı ve sesli içerik eklenmesini kolaylaştırır.

- Metin boyutu, yazı tipi ve renk gibi unsurları düzenleyerek belgeleri daha erişilebilir hale getirir.

4. Yapay Zekâ ile İlgili Güncel Vaka Çalışması

2 Ekim 2024'te entrepreneur.com tarafından yayınlanan bir haber, yapay zekâ teknolojilerinin kullanımında karşılaşılan gizlilik risklerine dikkat çekmektedir. Habere göre, 14 milyondan fazla kullanıcıya sahip popüler bir yapay zekâ transkripsiyon hizmeti olan Otter, bir yatırım firması ile görüşen AI araştırmacısı Alex Bilzerian’a yanlışlıkla gizli bir Zoom toplantısının transkriptini göndermiştir. Bu durum, yapay zekâ araçlarının hassas verilerin ifşasına yol açabileceği endişelerini bir kez daha gündeme getirmiştir.

Bilzerian, X (eski adıyla Twitter) platformunda yaptığı paylaşımda, transkriptte gizli iş detaylarının yanı sıra saatlerce süren özel konuşmaların yer aldığını belirtmiştir. Paylaşımı, beş milyondan fazla kez görüntülenmiştir. Otter, X'te verdiği yanıtta, transkriptin otomatik olarak paylaşılmamasının seçilebileceğini ifade etmiştir. Ancak olayın, toplantıyı sonlandırma veya transkripsiyon hizmetini devre dışı bırakma adımlarındaki bir eksiklikten kaynaklanmış olabileceği açıklanmamıştır. Bilzerian, elde ettiği bilgilere dayanarak söz konusu anlaşmayı yapmama kararı almıştır.

Bu olayın ardından birçok kişi, toplantılarda yapay zekâ araçlarının kullanımına ilişkin endişelerini dile getirmiştir. Quadrant Capital'den Mark Cecchini, yapay zekâ asistanlarının izinsiz olarak toplantılara dahil edilmesi durumunun artış gösterdiğini belirtirken, Ruby Media Group CEO’su Kristen Ruby, sanal terapilerde yapay zekâ kayıtlarının gizlilik ihlallerine yol açabileceğini ifade etmiştir. Diğer bazı kullanıcılar ise özel görüşmelerin dökümlerinin izinsiz şekilde paylaşılmasından duydukları rahatsızlığı dile getirmiştir.

4.1. Bu Haberden Çıkarılması Gereken Sonuçlar

- Yapay zekâ araçları, gizli bilgilerin ifşasına yol açabilecek ciddi gizlilik riskleri barındırmaktadır.

- Otomatik transkripsiyon hizmetlerinde erişim kontrollerinin ve kapatma prosedürlerinin eksiksiz şekilde uygulanması hayati önem taşır.

- Yapay zekâ kullanımına ilişkin açık onay ve bilgilendirme politikaları geliştirilmelidir.

- Kullanıcıların, yapay zekâ teknolojilerinin veri gizliliği üzerindeki etkilerini dikkate alarak daha bilinçli seçimler yapması gerekmektedir.

5. SONUÇ

Yapay zekâ not alma araçlarının başarılı bir şekilde uygulanabilmesi, faydalarını en üst düzeye çıkarırken risklerini en aza indirecek politikaların ve prosedürlerin benimsenmesini gerektirir. Bu teknolojilerin sunduğu hız ve kapsayıcılık gibi avantajlar, doğru bir şekilde yönetildiğinde, iş süreçlerini daha etkili ve erişilebilir hale getirebilir. Ancak, uygun erişim kontrolleri, veri koruma politikaları ve kapsamlı çalışan eğitimi gibi adımların atılması, bu araçların uzun vadede güvenli ve etik bir şekilde kullanılmasını sağlayacaktır.