TBMM Yapay Zeka Araştırma Komisyonu Raporu Hakkında Alternatif Bilişim Derneği Görüş Ve Önerileri

TBMM Yapay Zeka Araştırma Komisyonu Raporu Hakkında

Alternatif Bilişim Derneği Görüş Ve Önerileri

Türkiye Büyük Millet Meclisi (TBMM) Yapay Zeka Araştırma Komisyonu tarafından 30 Mart 2026 tarihinde yayımlanan 260 Sıra Sayılı Rapor, ( https://cdn.tbmm.gov.tr/KKBSPublicFile/D28/Y1/T10/DosyaKomisyonRaporunuVerdi/9f0e7abf-41f6-4133-ab3d-4879113f7f9f.pdf) ülkemizin yapay zeka alanındaki gelecek vizyonunu şekillendirme potansiyeli taşıması nedeniyle büyük önem arz etmektedir.

Alternatif Bilişim Derneği olarak, dijital haklar, internet sansürüyle mücadele, veri mahremiyeti ve gözetim karşıtlığı temel vizyonumuz doğrultusunda, teknolojinin insan hakları odaklı, şeffaf ve demokratik bir yapıda gelişmesini savunmaktayız. Yapay zeka stratejilerinin temelinde, teknolojinin insanın yerine geçmesi değil, insanı desteklemesi ve insan onurunu koruması esasına dayanan 'İnsan Merkezli Yaklaşım' yer almalıdır. Bu bağlamda, söz konusu Rapor'u, yapay zeka teknolojilerinin getirdiği fırsatları değerlendirirken, aynı zamanda barındırdığı risklere karşı temel hak ve özgürlükleri koruma sorumluluğu çerçevesinde değerlendirmek gerektiğini düşünüyoruz.

Yapay zeka düzenlemelerinin yalnızca teknik veya ekonomik bir mesele olmanın ötesinde, bir demokrasi ve insan hakları meselesi olduğu inancıyla, Rapor'daki önerilere ilişkin görüş ve eleştirilerimizi kamuoyunun dikkatine sunarız.

VİZYON VE STRATEJİ

TBMM Yapay Zeka Araştırma Komisyonu Raporu'nda, Türkiye'nin 2030 yılına kadar yapay zekayı geliştiren, kullanan ve insan odaklı şekilde düzenleyen, bölgesel ve küresel öncü bir yapay zeka aktörü olması vizyonu ortaya konulmuştur. Bu vizyonun hayata geçirilmesi amacıyla "Türkiye Yapay Zeka Kanunu" hazırlanması önerisi, ülkemizin bu alandaki kararlılığını göstermesi açısından olumlu bir adımdır. Ancak, inovasyonun desteklenmesi ile temel hakların korunması arasındaki hassas dengenin doğru kurulması hayati öneme sahiptir.

Kanun taslağının, esnek ve inovasyon odaklı bir yaklaşım benimserken, aynı zamanda insan odaklı, etik ilkelere uygun bir çerçeve çizmesi gerektiği belirtilmiştir. Alternatif Bilişim Derneği olarak, bu yaklaşımın, teknolojik gelişimin önünü açarken, bireylerin dijital haklarını güvence altına alacak güçlü mekanizmalar içermesi gerektiğini vurgulamaktayız. Kanun, sadece teknolojik ilerlemeyi teşvik etmekle kalmamalı, aynı zamanda yapay zeka sistemlerinin potansiyel ayrımcı etkilerine, veri mahremiyeti ihlallerine ve gözetim risklerine karşı açık ve net koruyucu hükümler içermelidir. Aksi takdirde, teknolojik gelişim, toplumsal fayda yerine yeni eşitsizlikler ve hak ihlalleri yaratma riski taşıyacaktır.

KURUMSAL YAPILANMA VE DENETİM

Rapor'da, yapay zeka alanındaki yönetişimi sağlamak üzere "Türkiye Yapay Zeka Kurumu" ve "Yapay Zeka Etik Kurulu" gibi yeni kurumsal yapılanmaların oluşturulması önerilmektedir. Bu tür kurumların kurulması, yapay zeka alanındaki politika ve düzenlemelerin koordinasyonu açısından gerekli olabilir.

Ancak, bu kurumların bağımsızlığı, şeffaflığı ve sivil toplum katılımına açık olması kritik bir husustur. Kurulacak kurumların, kamu, özel sektör, meslek örgütleri ve üniversitelerin temsilcilerinden oluşacak bir Danışma Kurulu'na sahip olması önerisi olumlu olmakla birlikte, sivil toplumun karar alma süreçlerine etkin katılımının sağlanması elzemdir.

Yapay zeka düzenlemelerinde demokratik denetimin ve insan hakları odaklı yaklaşımın kurumsal yapılara entegre edilmesinin önemini bir kez daha vurguluyoruz. Türkiye'de kurulacak yapılar da, siyasi ve ekonomik etkilerden bağımsız hareket edebilmeli, şeffaf karar alma süreçleri benimsemeli ve sivil toplumun denetimine açık olmalıdır. Aksi halde, bu kurumlar, yapay zeka teknolojilerinin potansiyel risklerini denetlemek yerine, bu riskleri meşrulaştıran veya göz ardı eden yapılar haline gelebilir.

VERİ MAHREMİYETİ VE GÖZETİM RİSKLERİ

Rapor'da önerilen "Türk Veri Havuzu" oluşturulması ve "Ulusal Yapay Zeka Güvenlik Stratejisi" hazırlanması gibi başlıklar, veri mahremiyeti ve gözetim riskleri açısından dikkatle değerlendirilmelidir. Yapay zeka araçlarının barındırdığı yetkisiz erişim ve veri sızıntısı gibi risklere karşı, veri gizliliğini ve güvenliğini mutlak surette koruyan proaktif bir yaklaşım sergilenmelidir.

Alternatif Bilişim Derneği olarak, büyük veri ve yapay zeka uygulamalarında veri minimizasyonu ilkesinin temel alınması gerektiğini savunmaktayız. Yani, bir amaç için toplanan verinin, o amaçla sınırlı kalması ve gereğinden fazla veri toplanmaması esastır. "Türk Veri Havuzu" gibi merkezi veri toplama ve işleme mekanizmaları, potansiyel olarak kitlesel gözetim risklerini beraberinde getirebilir. Devletlerin yapay zekayı kitlesel gözetim aracı olarak kullanmasına karşı katı sınırlamalar getirilmesi gerekir. Bu bağlamda, Türkiye'nin veri havuzu ve güvenlik stratejileri geliştirirken, bireylerin kişisel verilerinin korunması, anonimleştirme ve şifreleme gibi teknik önlemlerin yanı sıra, hukuki ve denetimsel güvencelerin de en üst düzeyde tutulması gerekmektedir. Veri toplama, işleme ve paylaşım süreçlerinde şeffaflık sağlanmalı, bireylere verileri üzerindeki kontrol hakkı tam olarak tanınmalı ve veri ihlallerine karşı etkin hukuki yollar sunulmalıdır.

ALGORİTMİK ŞEFFAFLIK VE HESAP VEREBİLİRLİK

Yapay zeka sistemlerinin karar alma süreçlerinin karmaşıklığı, algoritmik şeffaflık ve hesap verebilirlik konularını merkezi bir konuma taşımaktadır. Rapor, bu konulara dolaylı olarak değinse de, Alternatif Bilişim Derneği olarak, yapay zeka sistemlerinin özellikle bireyler üzerinde önemli etki yaratabilecek alanlarda (sağlık, adalet, istihdam vb.) karar alma mekanizmalarının şeffaf olması gerektiğini savunmaktayız. Tüm yapay zeka kullanım süreçlerinde, algoritmaların nasıl çalıştığına dair 'Şeffaflık ve Açıklanabilirlik' politikası tavizsiz bir şekilde benimsenmelidir. Bireylerin, yapay zeka sistemlerinin kendileri hakkında nasıl kararlar aldığını anlama ve bu kararlara itiraz etme hakkı olmalıdır. Bu bağlamda, "Temel Haklar Etki Değerlendirmesi" mekanizması Türkiye mevzuatına dahil edilmesi büyük önem taşımaktadır. Yüksek riskli yapay zeka sistemlerinin geliştirilmesi ve dağıtılması öncesinde, bu sistemlerin bireylerin temel hakları üzerindeki potansiyel olumsuz etkilerini değerlendirmeyi ve bu etkileri minimize etmeye yönelik önlemler almayı zorunlu kılınması gerekir. Bu tür bir mekanizma, yapay zeka sistemlerinin insan haklarına uygunluğunu proaktif bir şekilde sağlamak için kritik bir araç olacaktır.

SORUMLULUK VE HESAP VEREBİLİRLİK

Yapay zeka sistemlerinin kararlarında nihai sorumluluğun yapay zekada değil, her zaman insanda olduğu kabul edilmeli; üreticiler ve kullanıcılar 'Hesap verebilirlik İlkesine' sıkı sıkıya tabi tutulmalıdır. Bu ilke, yapay zeka sistemlerinin neden olduğu zararların tespiti ve tazmini için açık ve uygulanabilir mekanizmaların oluşturulmasını gerektirir.

ADALET VE TARAFSIZLIK

Yapay zeka araçları, geliştiricileri ve makine eğitim verileri kaynaklı önyargılara ve ayrımcılığa neden olan çıktılar üretebilir. Bu riskleri azaltmak için, yapay zeka sistemlerinin tasarım, geliştirme ve uygulama süreçlerinde çoğulcu, adil ve eşitlikçi bir 'Adalet ve Tarafsızlık' yaklaşımı zorunlu kılınmalıdır. Algoritmik önyargıların tespiti ve giderilmesi için düzenli denetimler yapılmalı ve bu denetimler bağımsız kuruluşlar tarafından gerçekleştirilmelidir.

SÜRDÜRÜLEBİLİRLİK VE ÇEVREYE DUYARLILIK

Yapay zeka ekosistemi geliştirilirken ve kullanılırken, yüksek enerji tüketimi ve karbon ayak izi gibi çevresel etkiler göz ardı edilmemelidir. Bu bağlamda, sürdürülebilir ve çevreye duyarlı bir teknoloji politikası izlenmeli, yapay zeka sistemlerinin enerji verimliliği artırılmalı ve çevresel etkileri minimize edecek çözümler teşvik edilmelidir.

DEZENFORMASYON VE ETİK SINIRLAR

Rapor'da, yapay zeka kaynaklı dezenformasyonla mücadele etmek amacıyla dijital filigran ve meta veri gibi kaynak tespit mekanizmalarının geliştirilmesi ve içerik üreticileri için imza sistemlerinin oluşturulması önerilmiştir.

Bu tür önlemlerin, dezenformasyonla mücadeledeki potansiyel faydaları göz ardı edilemez. Ancak, bu mekanizmaların ifade özgürlüğü üzerindeki olası etkileri dikkatle değerlendirilmelidir. Dijital filigran ve meta veri zorunluluğu, yaratıcılığı kısıtlayıcı veya sansüre yol açıcı bir araca dönüşmemelidir.

Önerilen özel etik çerçevelerin, özellikle psikolog, avukat ve doktor gibi uzmanlık gerektiren alanlarda, insan kararlarını etkileyen yapay zeka teknolojileri için hazırlanması, bu teknolojilerin insan hayatı üzerindeki doğrudan etkileri göz önüne alındığında yerindedir. Ancak, bu etik rehberlerin sadece tavsiye niteliğinde kalmaması, bağlayıcı hükümler içermesi ve ihlaller durumunda yaptırımların uygulanabilir olması gerekmektedir.

Ayrıca, yapay zeka uygulamalarının insan iradesini manipüle etme ve kişilere normalde gerçekleştirmeyecekleri eylemleri yaptırma riskine karşı hukuki düzenlemelerin yapılması önerisi, bu teknolojilerin etik sınırlarının belirlenmesinde önemli bir adımdır.

SONUÇ VE ÇAĞRI

TBMM Yapay Zeka Araştırma Komisyonu Raporu, Türkiye'nin yapay zeka alanındaki geleceğini şekillendirme potansiyeli taşıyan önemli bir belgedir.

Alternatif Bilişim Derneği olarak, bu Rapor'daki vizyon ve stratejilerin, dijital haklar ve insan hakları perspektifinden daha da güçlendirilmesi gerektiğine inanıyoruz. Yapay zeka düzenlemeleri, sadece ekonomik büyüme ve teknolojik ilerlemeyi hedeflemekle kalmamalı, aynı zamanda bireylerin temel hak ve özgürlüklerini merkeze alan, şeffaf, hesap verebilir ve demokratik bir çerçeve sunmalıdır.

Bu bağlamda, Alternatif Bilişim Derneği olarak somut politika önerilerimiz şunlardır:  

  • Hazırlanacak "Türkiye Yapay Zeka Kanunu", insan odaklı bir yaklaşımla, bireylerin veri mahremiyeti, ayrımcılık yasağı ve ifade özgürlüğü gibi temel haklarını güvence altına alan açık ve net hükümler içermelidir.
  • "Türkiye Yapay Zeka Kurumu" ve "Yapay Zeka Etik Kurulu" gibi yeni kurumsal yapılar, tam bağımsızlık, şeffaflık ve sivil toplumun etkin katılımını sağlayacak şekilde tasarlanmalıdır. Yapay zeka sistemlerinin geliştirilmesi, dağıtımı ve denetimi süreçlerinde bağımsız denetim mekanizmaları oluşturulmalı ve bu mekanizmalarda sivil toplum kuruluşlarının, akademisyenlerin ve dijital haklar aktivistlerinin etkin katılımı sağlanmalıdır. Karar alma süreçleri şeffaf olmalı ve sivil toplumun görüşleri dikkate alınmalıdır.
  • "Türk Veri Havuzu" ve "Ulusal Yapay Zeka Güvenlik Stratejisi" geliştirilirken, veri minimizasyonu ilkesine sıkı sıkıya uyulmalı, kitlesel gözetim risklerine karşı güçlü hukuki ve teknik korumalar sağlanmalıdır. Yenilikçi yapay zeka teknolojilerinin test edildiği düzenleyici kum havuzları, sadece teknik ve ekonomik hedeflere odaklanmamalıdır. Bu havuzlarda, insan hakları, veri gizliliği ve etik ilkelerin korunmasına yönelik sıkı ve bağımsız hak temelli denetim mekanizmaları kurulmalı, olası riskler önceden tespit edilerek giderilmelidir.
  • Yüksek riskli yapay zeka sistemleri için "Temel Haklar Etki Değerlendirmesi" mekanizması zorunlu hale getirilmeli ve algoritmik karar alma süreçlerinde tam şeffaflık sağlanmalıdır. Kamu kurumları ve kritik sektörlerde yüksek riskli yapay zeka sistemlerinin kullanımına ilişkin şeffaflık raporlarının düzenli olarak yayımlanması zorunlu hale getirilmelidir. Ayrıca, bu sistemlerin insan hakları üzerindeki potansiyel etkilerini değerlendiren Algoritmik Etki Değerlendirmeleri hukuken bağlayıcı ve zorunlu bir ön koşul olmalıdır. Bu değerlendirmeler, sivil toplum kuruluşlarının ve etkilenen bireylerin katılımıyla gerçekleştirilmelidir.
  • Biyometrik kitlesel gözetimin tamamen yasaklanmalıdır. Kamu alanlarında gerçek zamanlı veya sonradan yapılan biyometrik kitlesel gözetim sistemleri (yüz tanıma, duygu tanıma vb.) istisnasız bir şekilde yasaklanmalıdır. Bu tür sistemler temel haklar üzerinde caydırıcı bir etki yaratmakta ve demokratik katılımı engellemektedir.
  • Yapay zeka kaynaklı dezenformasyonla mücadele yöntemleri, ifade özgürlüğünü kısıtlayıcı bir araca dönüşmemeli, etik rehberler bağlayıcı nitelikte olmalı ve insan iradesini manipüle eden yapay zeka sistemleri yasaklanmalıdır.
  • Yapay zeka stratejileri, teknolojinin insanı desteklemesi ve insan onurunu koruması temelinde, insan merkezli bir yaklaşımla şekillendirilmelidir.
  • Yapay zeka sistemlerinin neden olduğu zararlarda nihai sorumluluğun insanda olduğu kabul edilmeli; üreticiler ve kullanıcılar için açık ve uygulanabilir hesap verebilirlik mekanizmaları oluşturulmalıdır.
  • Tüm yapay zeka kullanım süreçlerinde algoritmaların işleyişine dair tam şeffaflık ve açıklanabilirlik politikası benimsenmelidir.
  • Yapay zeka araçlarının barındırdığı veri gizliliği ve güvenliği risklerine karşı proaktif ve mutlak koruma sağlayan yaklaşımlar benimsenmelidir.
  • Yapay zeka sistemlerinden kaynaklanabilecek önyargı ve ayrımcılığı önlemek amacıyla, tasarım ve geliştirme süreçlerinde çoğulcu, adil ve eşitlikçi bir yaklaşım zorunlu kılınmalıdır.
  • Yapay zeka ekosistemi geliştirilirken, çevresel etkiler göz önünde bulundurularak sürdürülebilir ve çevreye duyarlı bir teknoloji politikası izlenmelidir.
  • Yapay zeka kaynaklı işsizlik ve mesleki dönüşümlere karşı sosyal güvenlik sistemi güncellenmeli, yaşam boyu eğitim programları yaygınlaştırılmalı ve işgücü piyasaları bu dönüşüme hazır hale getirilmelidir.

Türkiye'nin yapay zeka alanındaki düzenlemelerinin sadece teknolojik ilerlemeyi değil, aynı zamanda bireylerin temel hak ve özgürlüklerini de güvence altına alarak, insan merkezli ve demokratik bir dijital geleceğe katkı sağlayacağını düşünüyoruz.

Yapay zeka çağının getirdiği zorluklar ve fırsatlar karşısında, Türkiye'nin insan haklarına saygılı, demokratik ve sürdürülebilir bir dijital gelecek inşa etmesi için tüm paydaşların katılımıyla kapsayıcı bir diyalog ve işbirliği ortamının oluşturulması çağrısında bulunuyoruz.