yapay zekayı i̇ş modellerine entegre ederken

Yapay Zekayı İş Modellerine Entegre Ederken

Dikkat Edilmesi Gereken Hukuki ve Pratik Meseleler

22 May 2023

YAPAY ZEKAYI İŞ MODELLERİNE ENTEGRE EDERKEN DİKKAT EDİLMESİ GEREKEN HUKUKİ VE PRATİK MESELELER*[1]

Yazarlar:   Ahmet DEMİRTAŞ & ChatGPT-4

 

  1. Giriş

Özellikle ChatGPT’deki yeni gelişmeler yapay zekanın iş modellerinde kullanılmasının ne derece gerekli ve verimli olabileceğini ortaya koymuştur. ChatGPT’nin veya diğer yapay zekâ ürünlerinin iş modellerine entegre edilmesi özellikle ortalama vasıftaki çalışanları sistemin dışına itebilir. Zira ChatGPT’nin iş modellerine entegre edilmesi birçok sektörde çalışanlara duyulan ihtiyacı sonlandıran bir etkiye de sahip olacaktır. Başka bir deyişle, matbaa bulunduğunda elle kitap yazanlara ne olduysa, ChatGPT ve diğer yapay zekâ yazılımlarının iş modellerine entegre edilmesi halinde ortalama nitelikte çalışanların başına gelecek olan da aynıdır. Bu durum, kısa vadede çalışanların aleyhine gibi gözükse de,uzun vadede iş dünyası için kaçınılmaz bir fırsat yaratmaktadır. Çünkü yapay zekanın gelişmesi ve iş modellerine entegre edilmesi hem verimliliği artıracak hem de maliyetleri düşürecektir.

Bununla birlikte yapay zekanın iş modeline entegrasyonundan önce dikkat edilmesi gereken birçok pratik ve teknik husus bulunmaktadır. Örneğin iş problemini tam olarak anlamak ve yapay zekanın uygulanabileceği alanları belirlemek probleme en uygun çözümü geliştirmek için önemlidir. İlaveten, yapay zekâ modelleri, doğru sonuçlar üretmek için yüksek kaliteli ve doğru verilere ihtiyaç duyar. Bu aşamada yapay zekayı güncel ve doğru verileri kullanarak sürekli eğitmek (train) büyük öneme sahiptir.

Bunun da ötesinde yapay zekâyı iş hayatının bir parçası yapmak isteyen şirketlerin bu kullanımın hukuki altyapısını ve uyumunu sağlaması gerekmektedir. Zira yapay zekâ doğası gereği tehlikeli ve riskli karar alma mekanizmaları sunmakta ve kişileri zarara da uğratabilmektedir[2]. Örneğin sırf algoritmik karar alma süreci yüzünden bankalar kredi başvurunuzu reddedebilir, aldığınız uçak biletini daha pahalıya almış olabilirsiniz ve hatta yaptığınız iş başvurunuz özgeçmişinizdeki bir kelime yüzünden reddedilmiş olabilir[3]. Yine hastanede kullanılan yapay zekâ ile çalışan kanser teşhis cihazının bir kişiyi kanserli olmasına rağmen kansersiz diye tespit etmesi sebebiyle hastanın hayatı tehlikeye girebilir. Bu gibi durumlarda sektörlerin potansiyel sorumluluklarını bilmesi ve bu sorumluluğu azaltıcı veya bertaraf edici tedbirleri alması gerekecektir. Meselenin sorumluluk hukuku boyutunun dışında fikri mülkiyet ve kişisel veri güvenliği gibi başka hukuki alanlara temas eden bir yanı da vardır fakat bu iki alana daha önceki yazımızda[4] değindiğimizden bu yazının kapsamı dışında bırakmayı tercih ediyoruz.

  1. Yapay Zekanın İş Modeline Entegrasyonunda Atılması Gereken Teknik Adımlar

Yapay zekâ kullanacak şirketlerin vermesi gereken ilk karar işletmenin hangi ihtiyacı için yapay zekanın kullanılacağı meselesidir. Örneğin, bir e-ticaret şirketi web sitesindeki müşteri deneyimini geliştirmek ve satışları artırmak için yapay zekâ teknolojisini kullanabilir. Yapay zekâ teknolojisi müşterilerin satın alma davranışlarını analiz ederek ürün önerisinde bulunabilir. Müşteri davranışı izleme odaklı reklamların doğrudan müşterilerin ilgi duyacağı ürünleri karşılarını çıkarması sebebiyle ne derece etkili olduğu düşünüldüğünde e-ticaret firmaları için yapay zekanın bu amaçla kullanımının önemi anlaşılacaktır[5]. Ayrıca, satın alma işlemlerindeki sorunları ve iade oranlarını azaltmak için yapay zekâ tabanlı müşteri destek hizmeti de sunulabilir. Başka bir örnek vermek gerekirse; bir üretim şirketi, üretim verimliliğini artırmak, hataları minimize etmek ve bakım süresini azaltmak için yapay zekâ teknolojilerini kullanabilir. Yapay zekâ teknolojisi, üretim hattındaki sensörlerden toplanan verileri kullanarak, üretim sürecinde oluşan hataları tespit edebilir ve önleyici bakım önerilerinde bulunabilir. Ayrıca, yapay zekâ teknolojisi, üretim hattındaki verimliliği artırmak için üretim sürecini optimize edebilir ve makine arızalarını öngörebilir.

Ek olarak, hemen her şirket işe alımda yapay zekâ teknolojisi ile CV elemesi gerçekleştirebilir[6]. Sağlık alanında hastalık teşhisinde yapay zekadan yararlanılabilir[7]. Hukukta avukatlar sözleşme oluşturma ve incelemede, hakimler karar vermede, savcılar iddianame hazırlamada yapay zekadan faydalanabilir[8]. Amerika’daki COMPASS isimli yapay zekâ, koşullu salıverme müessesinde kişinin tekrar suç işleme olasılığını değerlendirerek hâkimin karar vermesinde ne derece etkili olabileceğini ortaya koymuştur. Yapay zekâ kripto varlık sektörünün de vazgeçilmez bir parçası olacaktır. Kripto varlık sektöründe yatırımcılar fiyat tahmini yapan algoritmalarla yine iş modellerini ve yatırımlarını geliştirebilirler[9]. Daha sayamadığımız birçok farklı alanda yapay zekanın iş modellerine dahil edilmesi verimliliği artırması mümkündür.

Yapay zekâ teknolojisi, öğrenen bir sistemdir ve iş modellerinde kullanılırken sürekli eğitim, sistemlerin doğruluğunu ve performansını artırmak için önemlidir. Yapay zekâ modelleri, önceden belirlenmiş özelliklere ve verilere dayalı olarak eğitilir ve bu nedenle bu özelliklere dayalı örneklerle karşılaşmadığı yeni verilerle karşılaştığında, doğruluğu düşebilir.

Sürekli eğitim, yapay zekâ modellerinin güncellenmesini, yeni verilerle öğrenmelerini ve doğruluklarını artırmalarını sağlar. Örneğin, bir müşteri destek chatbotu, müşterilerden gelen yeni sorularla karşılaştığında, bu sorulara yanıt vermek için eğitilmelidir. Sürekli eğitim sayesinde, chatbot daha fazla soruya yanıt verebilir ve doğruluk oranı artar. Başka bir örnek vermek gerekirse; bir e-ticaret şirketi, yapay zekâ kullanarak müşterilere ürün önerileri sunuyorsa, yapay zekâ modelinin müşteri tercihlerine göre eğitilmesi ve yenilenmesi, müşterilerin daha iyi hizmet almasını sağlar. Dolayısıyla, iş modelindeki ihtiyacın belirlenmesi, doğru yapay zekâ teknolojisinin tercih edilmesi ve sürekli eğitim ile yapay zekanın performansının artırılması yapay zekayı kullanmayı düşünen şirketlerin dikkat etmesi gereken hususlardır.

  1. Yapay Zekanın İş Modeline Entegrasyonunun Hukuki Altyapısı ve Uyum Süreci

Yapay zekâ teknolojileri yukarıda belirttiğimiz devasa faydalarıyla beraber çeşitli hukuki riskler ihtiva etmekte ve istenmeyen zararlara yol açabilmektedir. Yapay zekanın verdiği yanlış kararlar sebebiyle birileri yaralanabilir, ölebilir, ayrımcılığa maruz kalabilir veya kişilerin özel hayatının gizliliği ihlal edilebilir[10]. Tam da bu riskler sebebiyle Avrupa Birliği Yapay Zekâ Tüzük Teklifi’nde (‘‘Tüzük Teklifi’’) yapay zekâ teknolojileri risk durumlarına göre kategorilere ayrılmış ve bazı yapay zekâ teknolojileri doğrudan yasaklanmıştır. Örneğin Tüzük Teklifi’nin 5. Maddesi uyarınca, sübliminal tekniklerle kişileri manipüle edebilecek nitelikte yapay zekalar, kişilerin fiziksel veya zihinsel zayıflıklarından yararlanan yapay zekalar, sosyal puanlamaya ilişkin yapay zekalar ve gerçek zamanlı uzaktan biyometrik tanıma yapan yapay zekalar yasaklanmıştır[11].

Örneğin, Çin’de vatandaşların sosyal davranışlarına göre bir puanlama yapılarak, bireylerin sosyal statüsü belirlenmektedir. Bu puanlama, birçok faktörü içermekte ve bireylerin davranışları, finansal geçmişi, itibarı, iş ve eğitim durumları gibi faktörler dikkate alınarak kendilerini bir puan verilmektedir. Bu puanlama sistemi, yapay zekâ teknolojisi kullanarak bireylerin davranışlarını izleyebilen bir yapıya sahiptir. Örneğin, trafik kurallarını ihlal eden bir kişinin puanı düşebilmekte aksine, diğer insanlara yardım eden veya toplumun yararına çalışan kişilerin puanı artabilmektedir. Tüzük Teklifi bu tür uygulamaları yasaklamıştır. Yine örneğin bir şirketin alkol bağımlılarını tespit edip onlara yönelik özellikle içki reklamı yapması da Tüzük Teklifi ile yasaklanmıştır. Zira bu durum kişinin zayıflığının kullanılması hali kapsamındadır. Hedefleyici reklamcılık, sağlık, güvenlik ve temel haklara etki eden alanındaki yapay zekâ kullanımı ise yüksek riskli olarak sınıflandırılmış ve birçok denetim yükümlülüğü getirilmiştir[12].

Öğretide yazarlar yapay zekanın yol açtığı zararlarla ilgili haksız fiil sorumluluğu doğabileceğini belirtmiştir. Özellikle yüksek riskli alanlarda, yaralanma ve ölüm halinde üreticinin kusursuz sorumluluk esasına benzer bir sorumluluk veya tehlike sorumluğu olması gerektiği ileri sürülmüştür[13]. Diğer durumlarda ise klasik haksız fiil kusur sorumluluğunun uygulanmasının mümkün olduğunu belirtmişlerdir. Her halükârda, sorumluluk sebebi tartışılsa dahi, yapay zekanın yol açtığı zararlardan dolayı, yapay zekayı üreten ve kullanan kişilerin potansiyel bir sorumluluğu olduğu tartışmasızdır. Örneğin yapay zekâ teknolojisi ile çalışan ve kendi kendine giden bir araç yazılım hatası sebebiyle yaya giden bir kişiye çarpsa ve ölmesine yol açsa burada arabanın yazılımını geliştiren şirketin sorumluluğu doğacaktır. Benzer şekilde, CV incelemesi yapan ve kadınlara ayrımcılık uygulayan bir yapay zekâ programını kullanan şirketin sorumluluğu kaçınılmazdır. Amazon bu sebeple çeşitli davalarla karşılaşmış ve işe alımda özellikle erkekleri tercih eden yapay zekâ teknolojisini kullanmayı bırakmayı tercih etmiştir[14]. Başka bir örnek vermek gerekirse, hastalık teşhisi yapan yapay zekâ sisteminin doktorun yanlış veri girmesi sebebiyle yanlış teşhiste bulunması ve bu durumun hastada zarara yol açması halinde doktorun sorumluluğu gündeme gelecektir. Kanımızca sorumluluk belirlenirken kullanım hatasından mı, yazılımdan mı yoksa üretimdeki başkaca bir hatadan dolayı mı yanlış karar verildiği ve zararın asıl sebebinin ne olduğu araştırılmalı ve sonuca göre sorumluluk belirlenmelidir.

Ayrıca bu sorumluluk sadece haksız fiil eksenli olmayabilir. Örneğin bir avukatlık bürosu yapay zekâ teknolojisiyle sözleşme incelemesi yapıyorsa ve kullandıkları yapay zekâ teknolojisindeki bilgileri güncellemedikleri ve yapay zekayı yeterince eğitmedikleri için tavsiyeleri yanlış hukuki bilgiler içeriyorsa bizce burada vekalet sözleşmesine aykırılık söz konusu olabilir ve sözleşme sorumluluğu doğar. Dolayısıyla yapay zekâ kaynaklı sorumluluğu haksız fiilin katı uygulama alanına hapsetmek de gerekmez.

  1. Yapay Zekâ Sorumluluğunu Azaltmak İçin Alınması Gereken Tedbirler

Bu noktada insan müdahalesi yapay zekâ sistemlerinin sorumluluğunu azaltmak için bir yöntem olarak kullanılabilir. Yapay zekâ sistemleri, öngörülemeyen sonuçlar üretebilir ve insan müdahalesi, sistemlerin sonuçlarını izlemek ve uygun bir şekilde yanıt vermek için gereklidir. Ayrıca, yapay zekâ sistemleri bazen önyargılı kararlar verebilir ve bu durum, insanların müdahale etmesiyle düzeltilebilir. Özellikle, yapay zekâ sistemlerinin kullanıldığı kritik alanlarda (örneğin, sağlık, güvenlik, ulaşım vb.), yanlış kararlar büyük hasarlara neden olabilir. Bu nedenle, bu alanlarda yapay zekâ sistemlerinin kararları daha sıkı bir şekilde denetlenmelidir. Elbette denetimden önce risk tespiti yapılması gerekir. Daha fazla risk barındıran hususlarda denetimler sıklaştırılabilir.

Ek olarak, yapay zekâ sistemlerinin kararları, kullanılan verilerin kalitesine ve doğruluğuna bağlıdır. Bu nedenle, veri kalitesinin artırılması, yapay zekâ sistemlerinin doğru kararlar vermesine yardımcı olabilir ve sorumluluğun doğmasını önleyebilir.

  1. Sonuç

Yapay zekanın iş modellerine entegre edilmesi şu an şirketlerin takdirinde olan bir ticari karar gibi gözükmektedir. Bununla birlikte şimdiden yapay zekayı iş modelinin bir parçası haline getiren şirketlerin, hem yapay zekayı erkenden eğitmeye başlamasının ticari avantajını göreceği hem de potansiyel hukuki uyum sorunlarına karşı erkenden çözüm üreteceği açıktır. Bu durum ise yapay zekayı erkenden iş modeline entegre eden şirketlerin rakiplerine karşı rekabette onları üstün duruma taşıyabilecek derecede önemlidir.

İlaveten, rakipleriyle mücadele etmek isteyen şirketler muhakkak teknolojiden faydalanacak ve yapay zekayı sistemlerinde kullanmak zorunda kalacaktır. Fakat yapay zekâ hukuku hala tam anlamıyla gelişimini tamamlayamadığından birtakım hukuki belirsizlikler taşımaya devam etmektedir. Bu sebeple kanun yapma süreçleri yakından takip edilmeli ve yapay zekanın neden olabileceği muhtemel hukuki sorunlara karşı insan müdahalesi dahil olmak üzere çeşitli tedbirler alınmalıdır. Şirketler kullanmayı planladıkları yapay zekâ teknolojilerinin güncel gelişmeler karşısında bulunduğu konumu uyum ekipleriyle değerlendirmeli; yapay zekâ kullanımlarına yönelik hukuki riskleri azaltacak kurum içi politikalar geliştirmelidir. Biz yapay zekanın birçok sektörde kullanılmasının kaçınılmaz olduğu kanısındayız. Zira ekonomik hayatta ucuza kaliteli ürün üreten şirketler hayatta kalmakta ve teknolojiye ayak uyduramayanlar ise tarihin tozlu sayfalarında yerini almaktadır. Dolayısıyla, erkenden aksiyon alıp, yapay zekâ programlarını kendi şirketinin bir parçası yapan firmalar, yakın gelecekte ön plana çıkabilirler.

Herhangi bir yapay zekâ ürünü geliştiriyorsanız ve hukuki konuları göz ardı etmiş olabileceğinizi düşünüyorsanız bizlerle her zaman iletişime geçebilirsiniz.

 

[1]    Bu yazı GPT-4 ile birlikte kaleme alınmıştır.

[2]    Maja Brkan, ‘’Do Algorithms Rule the World? Algorithmic Decision Making in the Framework of the GDPR and Beyond’’ (2018), s.3

[3] . . Erdem Büyüksağiş, ‘‘Yapay Zekâ Karşısında Kişisel Verilerin Korunması ve Revizyon İhtiyacı’’ YÜHFD, C.XVIII, 2021/2, s.535

 

[4]    Ahmet Demirtaş, ‘‘OpenAI-ChatGPT: How It Shakes Intellectual Property and Data Protection Law’’, 2023 < https://solakpartners.com/openai-chatgpt/ > Erişim Tarihi: 18.05.2023

[5]  Claire M. Segijn, Iris Van Ooijen, ‘‘Differences in Consumer Knowledge and Perceptions of Personalized Advertising: Comparing Online Behavioural Advertising and Synced Advertising, Journal of Marketing Communications, 2022’’, s.211

[6]   Jihad Fraij, Laszlö Varallyai, ‘‘A Literature Review: Artificial Impact on the Recruitment Process, 2021’’, s.116

[7]     Bill Gates, ‘‘The Age of AI Has Begun, 2023’’,s.4

[8]     Fuso Jovia Boahemaa, ‘‘The Impact of Artificial Intelligence on Justice Systems 2019’’, s.10

[9]     Rasoul Amirzadeh, Asef Nazari, Dhananjay Thirucady, ‘‘Applying Artificial Intelligence in Cyrpto Markets: A Survey 2022’’, s.22

[10]     European Commission, ‘‘White Paper on Artificial Intelligence: A European Approach to Excellence and Trust 2020’’, s.1

[11]  Gabriele Mazzini, Salvatore Scalzo, ‘‘The Proposal for Artificial Intelligence Act: Considerations Around Some Key Concepts 2022’’, s.24

[12]   Ibid, s.25

[13] . . Baris Soyer, Andrew Tettenborn, ‘‘Artificial Liability and Civil Liability: We Need a New Regime? 2023’’, s.10

[14]   Frederik Zuiderveen Borgesius, ‘‘Discrimination, Artificial Intelligence and Algorithmic 2018’’, s.25