top of page

Yapay Zeka Ürünlerinin Etik Kullanımı, Bilgi Güvenliği İhlalleri ve Üçüncü Taraf Firmalar Tarafından Denetlenmesi

  • Yazarın fotoğrafı: Av.Kerimhan Dal
    Av.Kerimhan Dal
  • 14 Tem
  • 7 dakikada okunur

Giriş

Yapay zeka (AI) sistemleri, dünya genelinde hızla yaygınlaşmakta ve günlük yaşamın birçok alanında devrim yaratmaktadır. Bununla birlikte, bu teknolojilerin etik kullanımı ve uluslararası mevzuatlara uyumu büyük önem taşımaktadır. Bu yazıda çeşitli yapay zeka sistemlerinin etik kullanımı, veri ihlalleri ve uluslararası kurumlar tarafından bir denetim programına tabi tutulması ve denetlenmesi konuları işlenecektir.


Yazılımın Etik Kullanım İlkeleri: Gereklilikleri, Uygulamaları

Bir yazılımın etik kullanım ilkeleri; kullanıcıların gizliliği, güvenliği ve adaletli davranışlar ile ilgili bir dizi prensibi kapsar. İşte bir yazılımın etik kullanım ilkeleri arasında bulunması gerekenler:

  • Şeffaflık: Algoritmaların çalışma prensipleri, eğitim verileri ve öğrenme süreçleri açık ve anlaşılır olmalıdır. Bu sayede, kullanıcılar ve düzenleyiciler, sistemlerin doğru ve adil bir şekilde çalıştığını doğrulayabilirler.

  • Adillik: Yapay zeka sistemleri, herhangi bir ayrımcılığa yol açmamalı ve kullanıcıların eşit muamele görmesini sağlamalıdır. Bu, algoritmaların kapsayıcı ve çeşitli eğitim verileri ile eğitilmesini gerektirir.

  • Gizlilik ve Veri Güvenliği: Kullanıcı verileri, gizlilik ve güvenlik standartlarına uygun bir şekilde korunmalıdır. Bu, verilerin yetkisiz erişimden korunması ve kullanıcıların veri kullanımı konusunda bilgilendirilmelerini içerir.

  • Sorumluluk: AI uygulamalarının üreticileri ve kullanıcıları, sistemlerin sonuçlarından sorumlu tutulmalıdır. Bu, hatalı veya zararlı sonuçların önlenmesi ve gerekli düzeltmelerin yapılması için gerekli adımların atılmasını içerir.

  • İnsan Odaklılık: AI sistemleri geliştirilmesi ve kullanılması, insanların yaşamlarını iyileştirmeye ve insan haklarının korunmasına hizmet etmelidir.


Chatgpt’nin Veri Güvenliği Politikası Eksikliği ve Yasaklanması: Veri Güvenliği İhlalleri mi Var?

ChatGPT, OpenAI tarafından geliştirilen bir dil modelidir. GPT (Generative Pre-trained Transformer) serisinin bir parçasıdır ve büyük bir dil veri kümesinde eğitilerek, insan benzeri doğal dil işleme yetenekleri kazandı. ChatGPT, insanlarla sohbet etmek ve onlara yanıt vermek için tasarlanmıştır ve internet sitelerinde, mesajlaşma uygulamalarında veya sanal asistanlarda kullanılabilir.Modern yapay zeka sohbet botları artık kural tabanlı modellere dayanmamakta, aksine birden fazla kaynaktan elde edilen konuşma verilerini kullanarak doğal dil işleme ve makine öğrenimi teknikleri kullanmaktadır. Bununla birlikte, geleneksel kural tabanlı modeller belirli bir dizi önceden tanımlanmış kurallara göre karar verirken, verilerden öğrenme işlemine dayanmamaktadır.Bu yaklaşım kullanıcının sohbeti daha gerçekçi hale getirse de, chatbot’ların kişisel verileri sohbetlerden öğrenerek bir güvenlik riski oluşturabildiği de bilinmektedir. Kullanıcılar genellikle yapay zeka sohbetleri sırasında hassas kişisel tanımlama bilgilerinin nasıl yönetildiğini, kullanıldığını, depolandığını veya hatta paylaşıldığını bilemezler. Çevrimiçi tehditler ve yapay zeka sohbetlerindeki zafiyetler, bir organizasyon ve sistemleri tehlikeye attığında, kişisel verilerin sızdırılması, çalınması ve kötü amaçlı kullanımı gibi önemli güvenlik sorunlarına neden olabilir. Bu nedenle, iletişim kuran kullanıcıdan elde edilen verilerin depolanması ve kullanımıyla ilgili sorunlar ortaya çıkar ve müşteriyi korumak için standartlar belirlenmesi gerekmektedir.


AI Chatbotlarının Topladığı ve İşlediği Kişisel Veriler: Nelerdir ve Neden Önemlidir?


AI sohbet botları, tam yasal adlar, coğrafi konumlar veya adresler, hesap bilgileri, e- posta adresleri, telefon numaraları, kişisel tercihler ve hizmetle ilgili geri bildirimler de dahil olmak üzere çeşitli kişisel veri türlerini toplar ve işler. Bu veriler, kullanıcı deneyimini geliştirmek ve hedefli reklamcılık yapmak gibi farklı amaçlarla kullanılır. Ayrıca, toplanan veriler AI sohbet botlarının gelecekteki sorgulara yanıt verebilmesi için eğitim amaçlı kullanılır ve insan dilini anlayabilmesi için kullanıcılardan gelen sorulara uygun şekilde yanıt verebilmesi için işlenir.


Aktüel Örnekler Bağlamında Yapay Zeka Ürünleri ile Yaşanan Vakaların Değerlendirilmesi

  • İtalyan Hükümeti Tarafından ChatGPT’nin Yasaklanması

    İtalya’nın veri koruma otoritesi olan Garante per la Protezione dei Dati Personali, OpenAI tarafından geliştirilen ChatGPT’nin kullanıcıların yaşını doğrulamadaki eksikliği ve sohbet botunun eğitimi için kişisel verilerin geniş çapta toplanması ve depolanması gibi faaliyetlerinin, Avrupa Birliği’nin Genel Veri Koruma Yönetmeliği’nde (GDPR) belirtilen ilkelerle uyumlu olmadığını belirtti. Bu nedenle, Garante per la Protezione dei Dati Personali, ChatGPT’nin İtalya’da kullanımını yasakladı. Bu karar, kişisel verilerin korunması konusundaki yasal ve etik ilkelerin önemini vurgulamaktadır. Ayrıca, bu durum, yapay zeka tabanlı uygulamaların veri koruma yasaları açısından ele alınması gerektiği konusunda da bir örnek oluşturmaktadır. ChatGPT’nin GDPR kapsamında ihlal ettiği dört başlıca sorun:

    1. 13 yaşın altındaki çocukların ChatGPT’yi kullanabileceği yaş kontrolü ve ebeveyn onay sistemleri yoktur.

    2. İnsanlar hakkında doğru olmayan veya hatta yanlış bilgi sağlayabilir.

    3. Kişiler, verilerinin nasıl toplandığı konusunda bilgilendirilmemiştir.

    4. ChatGPT’yi eğitmek için bireylerin kişisel bilgilerinin kitlesel olarak toplanması için yasal bir dayanak yoktur.


  • Yapay Zekanın Zararlı Yazılım (Malware) ve Saldırılarda Kullanımı

    ChatGPT’nin potansiyel olarak zararlı yazılımlar için kullanılabileceği konusunda endişeler bulunmaktadır. Bazı kötü niyetli aktörler, OpenAI’nın yapay zeka teknolojilerini kullanarak, daha önce hiç programlama deneyimi olmayan kişilerin bile kolayca siber saldırılar başlatmasına yardımcı olabilecek kötü amaçlı araçlar geliştirmeye başladılar. Check Point Research’un yaptığı analizler, bu endişelerin haklı olduğunu gösteriyor ve bazı kötü niyetli aktörlerin OpenAI teknolojilerini zararlı amaçlarla kullanmaya başladığını ortaya koyuyor.Check Point Research, bazı büyük yeraltı hacker topluluklarını analiz ederek, kötü niyetli aktörlerin OpenAI teknolojilerini kullanarak kötü amaçlı araçlar geliştirip geliştirmediklerini araştırdı. Yaptıkları analizler şunları içeriyor:

    1. Kötü amaçlı yazılım geliştirmek için kullanılan OpenAI tabanlı bir araç olan “Malware GPT”nin keşfedilmesi.

    2. Malware GPT’nin önceden hazırlanmış bir dizi siber saldırı vektörü sunması, bu sayede kötü niyetli aktörlerin geliştirdiği kötü amaçlı yazılımları daha hızlı bir şekilde dağıtmasına olanak tanıması.

    3. Malware GPT’nin geliştiricilerinin, siber saldırı vektörlerinin yanı sıra, saldırıların hedeflenmesi için kullanılan çeşitli sosyal mühendislik taktiklerinin de bir listesini hazırlamış olması.

    4. OpenAI tabanlı bir başka araç olan “DeepPhishing”in keşfedilmesi, bu aracın sahte oturum açma sayfaları ve diğer phishing saldırıları için otomatik olarak özelleştirilmiş e-postalar oluşturduğu ortaya çıktı.

    5. DeepPhishing’in kullanıcı dostu bir arayüze sahip olması ve siber suçluların gelişmiş programlama becerilerine ihtiyaç duymadan kolayca kullanabilmesi nedeniyle daha geniş bir kullanıcı kitlesine hitap ettiği görülüyor.

  • Midjourney, Papa Francis ve Donald Trump’ın Sahte Görüntülerinin Yaratılmasında Kullanılması

    Midjourney, doğal dil açıklamalarıyla “teşvikler” olarak adlandırılan kavramları kullanarak görüntüler oluşturan bir yapay zeka programı ve hizmetidir. Bu program ve hizmet, San Francisco merkezli bağımsız araştırma laboratuvarı Midjourney, Inc. tarafından oluşturulmuştur ve barındırılmaktadır. Midjourney’nin, OpenAI’nin DALL-E ve Stable Diffusion gibi benzer yapay zeka araçlarına benzer bir işlevi vardır. Sahte bir görüntü, Papa Francis’in bembeyaz bir mont giydiği bir fotoğraf, Facebook ve Reddit’te paylaşıldıktan sonra nihayetinde Twitter’a ulaştı ve şimdi 20 milyondan fazla kez görüntülendi. Geçtiğimiz hafta, eski ABD başkanı Donald Trump’a yönelik potansiyel bir iddianame tartışması gündemdeyken, bir dizi çevrimiçi fotoğraf ortaya çıktı. Bahsi geçen fotoğraflarda, Trump’ın birkaç polis memuru tarafından tutulduğu tasvir ediliyordu ve hızla çevrimiçi platformlarda dikkat çekti. Ancak, daha sonra yapılan analizler sonucunda bu fotoğrafların yapay zeka destekli Midjourney aracılığıyla üretildiği tespit edildi.


Yapay Zeka Ürünleri İçin Denetim Programı ve Sertifikasyon Oluşturulması: İhtiyaçlar ve Tartışmalar

Yapay zeka ürünlerinin denetimi, çeşitli aşamalarda gerçekleştirilebilir. Öncelikle, ürünün tasarım ve geliştirme aşamalarında, güvenlik standartlarına uygunluk denetimleri yapılabilir. Bu, ürünün tasarımında güvenlik açıklarının önlenmesine ve ürünün güvenli bir şekilde çalışmasına yardımcı olur.


Ürünün test aşamasında, farklı senaryolar kullanılarak ürünün doğru ve güvenli bir şekilde çalıştığı doğrulanabilir. Örneğin, yapay zeka ürünleri için özel olarak tasarlanmış test senaryoları kullanılabilir. Bu senaryolar, ürünün doğru ve güvenli bir şekilde çalıştığını doğrulamak için farklı girdi ve çıktılar kullanır. Ürünün yayınlanması ve kullanımı aşamasında ise, üçüncü taraf denetimleri yapılabilir. Bu denetimler, ürünün doğru çalıştığını ve güvenli olduğunu doğrulamak için bağımsız bir değerlendirme sağlar. Bu tür denetimler, kullanıcıların güvenliği ve ürünün doğru çalışması açısından kritik öneme sahiptir.ISO (International Organization for Standardization) veya Türkçe adıyla Uluslararası Standardizasyon Örgütü, dünya genelindeki ülkelerin katılımıyla oluşturulmuş bir standartlar organizasyonudur. ISO, farklı sektörlerdeki ürün ve hizmetlerin kalitesinin ve güvenilirliğinin artırılması, ticaretin kolaylaştırılması ve uluslararası iş birliğinin geliştirilmesi amacıyla standartlar geliştirir ve yayınlar. ISO tarafından belirlenmiş bir denetim programına tabi tutulmak, yapay zeka ürünlerinin kalitesi, güvenliği ve uygunluğu açısından önemli bir adım olabilir. ISO tarafından belirlenen standartlar, işletmelerin ürünlerinin kalitesi, güvenliği ve uygunluğu hakkında bağımsız bir değerlendirme sağlar ve müşterilerin ve kullanıcıların güvenliği açısından kritik öneme sahiptir.


Yapay Zeka ve Hukuk

Hukuk kuralları temel olarak somut olaylardan ilham aldığı için genellikle sosyal hayatı etkileyen gelişmelerin ardından gelir. Başka bir deyişle, hukuk kuralları toplumun ihtiyaçlarına göre şekillendiği için dinamik ve değişken yapıdadır. Aksi halde, statik yapıdaki hukuk kuralları sosyal hayattaki uyuşmazlıkların çözümünde yetersiz kalacaktır. Yapay zekâ hayatımıza yeni girmiş olmasa da yakın geçmişle karşılaştırıldığında artık daha farklı anlamlara gelmektedir. Yapay zekâlı robotlar, yapay zekâlı aletler/yazılımlar, otonom arabalar, otonom akıllı cihazlar… Saydıklarımız sadece yüksek teknoloji şirketleri veya devletler için değil toplumun genel kullanımı için de daha yaygın hale gelmektedir.


Yapay zekâ ilk olarak insanlara karmaşık konularla başa çıkma ya da insanın üstesinden gelemeyeceği büyüklükteki veri kümelerinden ihtiyaç duyulan bilgiye erişmeyi sağlama gibi faydalar sağlar. Öte yandan, çalışmamızın başında detaylı izah edildiği üzere kötüniyetli olarak kullanılabilmeye de elverişlidir. Hukuk açısından bakıldığında ise ilk adım düzenlenecek kavramın tanımlanmasıdır. Yapay zekanın olağan bilgisayar yazılım sistemlerinden nispeten farklı olan opak yapısı ve arka plan işletim sistemi, kodlar ve algoritmalar sebebiyle de bazı belirsizliklere sahiptir. Bir diğer nokta da yapay zekanın tıp, askeriye, pek çok sanayi türü, bilgisayar ve internet teknolojileri vb. gibi farklı alanlara konu olması sebebiyle tüm bu alanlara uygulanabilecek tek tip kuralları oluşturmanın zorluğudur.

(1) Birleşmiş Milletler yapay zekanın öneminin ve gelecekte üstleneceği rolün farkına varmıştır. Bu kapsamda BM yapay zekâ ve robotik hakkında bir program başlatılmasına karar vermiştir. Birleşmiş Milletler çatısı altındaki Bölgelerarası Suç ve Adalet Araştırma Enstitüsü (UNICRI) bünyesinde Lahey’de Yapay Zekâ ve Robotik Merkezi kurulmuştur.

(2) Merkezin amacı yapay zeka konusundaki gelişmelerin takip edilmesidir. UNICRI içerisindeki bu merkezin belli faaliyetleri olsa da BM’nin yapay zeka ve robotik programı halen yapay zekaya yönelik düzenlemelerden uzaktır. Avrupa Birliği yapay zeka konusunda inovasyon, ekonomi, veri koruma, etik çerçeve gibi esaslar dâhilinde daha kapsamlı düzenlemelere ve faaliyetlere sahiptir. AB üyesi 25 ülke 10 Nisan 2018 tarihinde yapay zeka ile ilgili sosyal, ekonomik ve hukuki meselelerle başa çıkmak ve yapay zeka konusunda işbirliği yapmak üzere bir bildirge imzalamıştır.

(3) Bu amaçla yapay zeka konusunda Avrupa stratejisinin uygulanmasını desteklemek üzere Yapay Zeka Üst Düzey Uzman Grubu (AI HLEG) oluşturulmuştur.

(4) Bu bağlamda, bu çalışma grubu tarafından yedi temel ölçütten oluşan “Güvenilir Yapay Zekâ Yönergesi” de hazırlanmıştır. Avrupa Birliği’nin, yapay zekanın fayda ve risklerine yönelik olarak kapsamlı bir stratejisi ve dinamik bir yaklaşımı bulunmaktadır.

(5) Devletlerin de yapay zeka alanındaki faaliyetlerini belirlemek ve küresel yarışta geride kalmamak için yapay zeka stratejileri bulunmaktadır. ABD, Çin, Kanada, Birleşik Krallık, Hindistan gibi yapay zeka alanında öncü ülke olmak isteyen bazı ülkeler kendi yapay zeka stratejilerini ilan etmişlerdir. 6 Yapay zekanın geliştirilmesi ile hukuken düzenlenmesinin eş zamanlı olarak gerçekleşmesi günümüz şartlarında düşük bir olasılıktan öteye gitmemektedir. Nitekim, devletler yapay zeka teknolojilerinde diğer ülkelerle rekabette öne çıkacak şekilde gelişmeyi amaçlamakta olup diğer taraftan yapay zekaya ilişkin yapılacak kapsamlı hukuki düzenlemeler erken aşamada yapay zeka teknolojilerinin geliştirilmesi için engel teşkil edebilecektir. Genel olarak devletler, yapay zekanın en azından fazlaca yaygınlaşmasından önce yapay zeka hakkında kapsamlı hukuki düzenlemeler yapmak yerine strateji belirleyerek öncelikle yapay zekanın daha fazla geliştirilmesini öne alan bir konumdadırlar.


© 2025                                                                                  

Dal Hukuk & Danışmanlık I Av. Kerimhan Dal 

  • LinkedIn
bottom of page