ARTICLE
16 April 2026

İş Yerlerinde Üretken Yapay Zekâ Kullanımı: KVKK Rehberi Işığında Riskler Ve Yönetişim

HB
Herguner Bilgen Ucer Attorney Partnership

Contributor

Hergüner Bilgen Üçer is one of Türkiye’s largest, full-service independent corporate law firms representing major corporations and clientele, and international financial institutions and agencies. Hergüner not only provides expert legal counsel to clients, but also serves as a trusted advisor and provides premium legal advice within a commercial context.
Kişisel Verileri Koruma Kurumu, internet sitesinde yayımladığı “İş Yerlerinde Üretken Yapay Zekâ Araçlarının Kullanımı” başlıklı metinde ile üretken yapay zekâ araçlarının iş süreçlerinde kullanımına ilişkin başlıca risk alanları ve kuruluşlar tarafından dikkate alınabilecek yönetişim yaklaşımlarına ilişkin değerlendirmelerini kamuoyuyla paylaştı.
Turkey Technology
Herguner Bilgen Ucer Attorney Partnership are most popular:
  • within Intellectual Property and Family and Matrimonial topic(s)

Kişisel Verileri Koruma Kurumu (“KVK Kurumu”), internet sitesinde yayımladığı “İş Yerlerinde Üretken Yapay Zekâ Araçlarının Kullanımı” başlıklı metinde (“Metin”) ile üretken yapay zekâ araçlarının iş süreçlerinde kullanımına ilişkin başlıca risk alanları ve kuruluşlar tarafından dikkate alınabilecek yönetişim yaklaşımlarına ilişkin değerlendirmelerini kamuoyuyla paylaştı.

Metin, çalışanların günlük iş akışlarında üretken yapay zekâ araçlarının yaygınlaşması karşısında, bu kullanımın yalnızca verimlilik ve hız avantajları üzerinden değil; kişisel verilerin korunması, bilgi güvenliği, ticari sırların korunması, karar kalitesi ve kurumsal yönetişim bakımından da değerlendirilmesi gerektiğini gösteriyor.

Gölge Yapay Zekâ: Kurumsal Kontrol Dışı Kullanımın Yükselen Riski

Metinde öne çıkan kavramlardan biri “Gölge Yapay Zekâ” (Shadow AI). Bu kavram, çalışanların üretken yapay zekâ araçlarını kurumun bilgisi veya kontrolü dışında, iş süreçlerinde kullanmasını ifade ediyor.

KVK Kurumu, bu tür kontrol dışı kullanımın özellikle hesap verilebilirlik, ticari sır ve kişisel veri dahil bilgi güveliği alanlarında risk yaratabileceğine dikkat çekiyor.

Bu yaklaşım, şirketlerin yalnızca “Yapay zekâ kullanılıyor mu?” sorusuna değil; hangi araçların, kimler tarafından, hangi amaçlarla ve hangi veri kategorileriyle kullanıldığına da odaklanması gerektiğini gösteriyor.

Kişisel Veriler, Ticari Sırlar ve Hassas Bilgiler Bakımından Riskler

KVK Kurumu, üretken yapay zekâ araçlarının kontrol dışı kullanımının yalnızca kişisel veriler bakımından değil; ticari sırlar, fikri mülkiyet hakları ve kurumsal açıdan hassas bilgiler bakımından da önemli riskler doğurabileceğine dikkat çekiyor. Metinde, kaynak kod, ürün tasarımları, iş stratejileri, iç yazışmalar, insan kaynakları verileri ve müşteri dosyaları gibi içeriklerin harici yapay zekâ araçlarıyla paylaşılmasının, bu bilgiler üzerindeki kurumsal kontrolü zayıflatabileceği vurgulanıyor.

Kişisel veriler bakımından ise KVK Kurumu, üretken yapay zekâ sistemleri aracılığıyla yürütülen veri işleme faaliyetlerinin 6698 sayılı Kanun kapsamında olduğunu açıkça ortaya koyuyor. Bu çerçevede, çalışanlar tarafından komutlar aracılığıyla kişisel veri paylaşılması; verilerin yetkisiz işlenmesi, üçüncü kişilerce erişilebilir hâle gelmesi veya amaç dışı kullanılması risklerini beraberinde getirebiliyor.

Hız ve Verimlilik Kadar Doğruluk ve İnsan Denetimi de Önemli

KVK Kurumu ayrıca üretken yapay zekâ sistemleri tarafından üretilen çıktılara aşırı güven duyulması riskine de dikkat çekiyor. Literatürde “automation bias” olarak ifade edilen bu durum, kullanıcıların otomatik sistemler tarafından üretilen içerikleri yeterli değerlendirmeden geçirmeden doğru kabul etmesine yol açabiliyor.

Buna paralel olarak, üretken yapay zekâ sistemlerinin gerçeğe aykırı ancak ikna edici görünen içerikler üretebilmesi (“hallucination”) riskinin de kurumsal karar süreçlerinde dikkate alınması gerektiği belirtiliyor. Bu nedenle KVK Kurumu, yapay zekâ çıktılarının nihai kararların doğrudan dayanağı olarak değil, insan değerlendirmesi altında destekleyici bir araç olarak ele alınması gerektiğini vurguluyor.

İş Yerleri İçin Öne Çıkan Uyum Başlıkları

Metinde, üretken yapay zekâ araçlarının iş yerlerinde kullanımına ilişkin olarak kuruluşların benimseyebileceği bazı yönetişim yaklaşımlarına da yer veriliyor. Bu kapsamda özellikle:

  • Üretken yapay zekâ araçlarının kullanımına ilişkin açık bir kurumsal politika veya rehber oluşturulması,
  • Bu araçlara hangi tür verilerin girdi olarak sunulabileceğinin belirlenmesi,
  • Kurumsal veriler ve kişisel veriler bakımından gizlilik ve güvenlik tedbirlerinin gözden geçirilmesi,
  • Üretilen içeriklerin insan denetimi altında değerlendirilmesi,
  • Çalışanlara yönelik farkındalık ve eğitim faaliyetlerinin yürütülmesi,

gibi hususların risklerin yönetilmesi bakımından önem taşıdığı ifade ediliyor.

Uygulama ve Uyum Perspektifi

Rehber, şirketler bakımından üretken yapay zekâ kullanımının artık yalnızca bir verimlilik aracı değil; veri koruma, bilgi güvenliği ve kurumsal yönetişim kapsamında ele alınması gereken bir uyum alanı olduğunu ortaya koyuyor. Bu çerçevede şirketlerin, çalışanların harici üretken yapay zekâ araçlarıyla hangi verileri paylaşabileceğini netleştirmesi; kişisel veriler, ticari sırlar ve hassas kurumsal bilgiler bakımından açık sınırlar belirlemesi; erişim kontrolü, insan denetimi ve iç politika mekanizmalarını güçlendirmesi önem taşıyor. Bu yönüyle Metin, iş yerlerinde üretken yapay zekâ kullanımını tamamen yasaklamaktan ziyade, görünür, kontrollü ve sorumlu bir çerçeveye oturtan bir yaklaşımı yansıtıyor.

The content of this article is intended to provide a general guide to the subject matter. Specialist advice should be sought about your specific circumstances.

[View Source]

Mondaq uses cookies on this website. By using our website you agree to our use of cookies as set out in our Privacy Policy.

Learn More