Yapay zekanın kullanması adalet anlayışını zedeliyor Yapay zekanın olumsuz kullanması adalet anlayışını zedeleyebiliyor – İstanbul Medipol Üniversitesi İnsan ve Toplum Bilimleri Fakültesi Öğretim Üyesi Doç. Dr. Faik Tanrıkulu: – “Bu teknolojilerin değerlendirmelerine bağlı olarak insanların kuşkulu kabul edilmesi adalet anlayışını zedeleyebiliyor” – “Çin hükümeti bu süreçte insanların akıllı telefonlarını yakından izlemiş, yüz milyonlarca yüzü tanıyan kameraları kullanmaktan kaçınmamıştı” – “Myanmar’da ve Etiyopya’daki etnik çatışma da şiddetin artmasında bu platformun (Facebook) tesiri olduğu ortaya çıktı”
Yapay zeka teknolojileri eğitimden sıhhate, güvenlikten eğlenceye kadar ömrün her alanından kullanım alanlarını süratle genişletiyor. Özellikle yeniden eden ve rutin işlerde getirdikleri çarçabuk iş hayatında merkezi bir rol oynamaya başlayan yapay zeka teknolojileri, güvenlik münasebetleri ile özel yaşamın kapalılığı üzere konularda ise telaşlara sebep oluyor.
İstanbul Medipol Üniversitesi İnsan ve Toplum Bilimleri Fakültesi Öğretim Üyesi Doç. Dr. Faik Tanrıkulu, son periyotta yapay zekanın olumsuz kullanması sorunu ile ilgili görüşlerini paylaştı.
İktidarların hem sensörler birebir vakitte algoritmalar aracılığıyla sürekli farklı noktaları takip edebildiğini belirten Tanrıkulu, “Bu hususta yeni teknolojileri kullanan ülkelerin başında Çin geliyor. Çin hükümeti bu süreçte insanların akıllı telefonlarını yakından izlemiş, yüz milyonlarca yüzü tanıyan kameraları kullanmaktan kaçınmamıştı. Hatta insanların beden sıcaklıklarını, tıbbi durumlarını denetim etmeye ve bildirmeye zorlamıştı.
Bu kapsamda ülkelerin hem ulusal güvenlik tıpkı vakitte hudut idaresi konusunda bu teknolojileri kullanımı insan hakları açısından telaş verici olabiliyor. Çünkü yapay zekâ araçları gerek insanların profilini çıkararak artan cürüm ve terörist faaliyet alanlarını belirleyebilmek için toplumsal medya gönderilerini, seyahat kayıtlarını ve suç istatistiklerini cezai muahede için kullanabiliyor. Bu teknolojilerin değerlendirmelerine bağlı olarak insanların kuşkulu kabul edilmesi adalet anlayışını zedeleyebiliyor.” formunda konuştu.
MYANMAR’DAKİ ŞİDDET OLAYLARININ ARTMASINDA YAPAY ZEKANIN ROLÜ
İnsan Hakları İzleme Örgütü’nün Myanmar’ın askeri cuntasının arananlar listesini yüz ve plaka tanıma sistemiyle Çinli teknoloji şirketi tarafınca sağlanmasını eleştirdiğini belirten Tanrıkulu, kelamlarını şu biçimde sürdürdü:
“Ayrıca 20018 yılında Facebook’un kullandığı yapay zekâ algoritmalar muhakkak bir süre daha sonra şiddet içerikli sayfalar önermeye başlaması süratle gelişen teknolojinin olumsuz kullanmasını gözler önüne getirdi. Guardian gazetesinin bir rapora dayandırdığı haberde, Facebook Myanmar’daki darbe protestocularına karşı şiddeti teşvik eden paylaşımları platformun berbata kullanımını kısıtlama kelamı vermesine karşın kaldırmadı.
Küresel Witness hak kümesi, Facebook teklif algoritmasının kullanıcıları şirket siyasetlerini ihlal eden içeriği görüntülemeye devam ettiğini tespit etti. Ayrıyeten şirketin küfürlü içerik barındıran asker yanlısı sayfa önerdiğini ortaya çıkardı. Bu niçinle Myanmar’da ve Etiyopya’daki etnik çatışma da şiddetin artmasında bu platformun tesiri olduğu ortaya çıktı. Myanmar’da nüfusun yarısını Facebook’u faal kullanıyor. ötürüsıyla tesirli olan bu platformun manipülasyon ve etkileşim siyasetlerini yapay zekâ teknoloji ile yapıyor olması kıymetli. Şirket yetkilileri berbata kullanıldığını kabul ederek yanlışını kabul etmişti.”
DATA SETLERİ AYRIMCILIĞA VE IRKSAL ÖNYARGILARA SEBEP OLABİLİYOR
Yapay zeka dayanaklı süratle gelişen teknolojinin oluşturabileceği tehlikelere karşı memleketler arası örgütlerin de harekete geçtiğine değinen Tanrıkulu, “Birleşmiş Milletler (BM) İnsan Hakları Kurulunun yayınladığı raporda, bu değişen teknolojinin başta profil oluşturma, otomatik karar vermek ve makine tahsili dahil biroldukca özelliği ile insan hakları risklerini tahlil ettiğini bildiriyor. Komiser Bachelet bu durumu felaket olarak yorumluyor. Raporun dikkati çeken tarafı ise bu teknolojide kullanılan bilgi setlerinin hem ayrımcılığa tıpkı vakitte ırksal ve etnik önyargıları tetikleyecek sıkıntılara niye olacağını açıklıyor.” diye konuştu.
Tanrıkulu, yapay zekanın mağduriyetlere sebep olmadan kullanılması için yapılması gerekenlere dair ayrıntılar vererek, kelamlarını şöyleki sürdürdü:
“Sonuç olarak, yapay zekâ teknolojisi günümüz dünyasında yaşamı kolaylaştıran imkanlar oluşturduğu üzere insan hakları ihlallerini görmemezlikten gelmek yanlışsız bir yaklaşım olmaz. Bu istikametiyle ülkelerin ve karar vericilerin bu hususta daha fazla şeffaf, adil kıymetlendirme ve yapay zekanın kullanmasının tesirleri konusunda daha açık olmalı. Hususun uzmanları bu mevzuda milletlerarası bir aksiyon planının çıkarılması görüşünde.
Tam bu noktada bu teknolojilerin kullanmasını kısıtlamadan çok, bu alanda çalışan şirketlerin milletlerarası hukuk normlarına uyması ve denetlenebiliyor olması esas değerli konulardan. Ancak birinci vakit içinderda günümüz kaidelerine teknoloji ile gelişen bu platformların ülkeler ve aktörler tarafınca tarafsızca ele alınması ve mevzuatın oluşması gerekiyor. Bu durumda yapay zekanın idari ve hukuksal düzenekleri ve uygulamaları gelecekte ülkelerin daha hayli gündeminde olacak.”
Yapay zeka teknolojileri eğitimden sıhhate, güvenlikten eğlenceye kadar ömrün her alanından kullanım alanlarını süratle genişletiyor. Özellikle yeniden eden ve rutin işlerde getirdikleri çarçabuk iş hayatında merkezi bir rol oynamaya başlayan yapay zeka teknolojileri, güvenlik münasebetleri ile özel yaşamın kapalılığı üzere konularda ise telaşlara sebep oluyor.
İstanbul Medipol Üniversitesi İnsan ve Toplum Bilimleri Fakültesi Öğretim Üyesi Doç. Dr. Faik Tanrıkulu, son periyotta yapay zekanın olumsuz kullanması sorunu ile ilgili görüşlerini paylaştı.
İktidarların hem sensörler birebir vakitte algoritmalar aracılığıyla sürekli farklı noktaları takip edebildiğini belirten Tanrıkulu, “Bu hususta yeni teknolojileri kullanan ülkelerin başında Çin geliyor. Çin hükümeti bu süreçte insanların akıllı telefonlarını yakından izlemiş, yüz milyonlarca yüzü tanıyan kameraları kullanmaktan kaçınmamıştı. Hatta insanların beden sıcaklıklarını, tıbbi durumlarını denetim etmeye ve bildirmeye zorlamıştı.
Bu kapsamda ülkelerin hem ulusal güvenlik tıpkı vakitte hudut idaresi konusunda bu teknolojileri kullanımı insan hakları açısından telaş verici olabiliyor. Çünkü yapay zekâ araçları gerek insanların profilini çıkararak artan cürüm ve terörist faaliyet alanlarını belirleyebilmek için toplumsal medya gönderilerini, seyahat kayıtlarını ve suç istatistiklerini cezai muahede için kullanabiliyor. Bu teknolojilerin değerlendirmelerine bağlı olarak insanların kuşkulu kabul edilmesi adalet anlayışını zedeleyebiliyor.” formunda konuştu.
MYANMAR’DAKİ ŞİDDET OLAYLARININ ARTMASINDA YAPAY ZEKANIN ROLÜ
İnsan Hakları İzleme Örgütü’nün Myanmar’ın askeri cuntasının arananlar listesini yüz ve plaka tanıma sistemiyle Çinli teknoloji şirketi tarafınca sağlanmasını eleştirdiğini belirten Tanrıkulu, kelamlarını şu biçimde sürdürdü:
“Ayrıca 20018 yılında Facebook’un kullandığı yapay zekâ algoritmalar muhakkak bir süre daha sonra şiddet içerikli sayfalar önermeye başlaması süratle gelişen teknolojinin olumsuz kullanmasını gözler önüne getirdi. Guardian gazetesinin bir rapora dayandırdığı haberde, Facebook Myanmar’daki darbe protestocularına karşı şiddeti teşvik eden paylaşımları platformun berbata kullanımını kısıtlama kelamı vermesine karşın kaldırmadı.
Küresel Witness hak kümesi, Facebook teklif algoritmasının kullanıcıları şirket siyasetlerini ihlal eden içeriği görüntülemeye devam ettiğini tespit etti. Ayrıyeten şirketin küfürlü içerik barındıran asker yanlısı sayfa önerdiğini ortaya çıkardı. Bu niçinle Myanmar’da ve Etiyopya’daki etnik çatışma da şiddetin artmasında bu platformun tesiri olduğu ortaya çıktı. Myanmar’da nüfusun yarısını Facebook’u faal kullanıyor. ötürüsıyla tesirli olan bu platformun manipülasyon ve etkileşim siyasetlerini yapay zekâ teknoloji ile yapıyor olması kıymetli. Şirket yetkilileri berbata kullanıldığını kabul ederek yanlışını kabul etmişti.”
DATA SETLERİ AYRIMCILIĞA VE IRKSAL ÖNYARGILARA SEBEP OLABİLİYOR
Yapay zeka dayanaklı süratle gelişen teknolojinin oluşturabileceği tehlikelere karşı memleketler arası örgütlerin de harekete geçtiğine değinen Tanrıkulu, “Birleşmiş Milletler (BM) İnsan Hakları Kurulunun yayınladığı raporda, bu değişen teknolojinin başta profil oluşturma, otomatik karar vermek ve makine tahsili dahil biroldukca özelliği ile insan hakları risklerini tahlil ettiğini bildiriyor. Komiser Bachelet bu durumu felaket olarak yorumluyor. Raporun dikkati çeken tarafı ise bu teknolojide kullanılan bilgi setlerinin hem ayrımcılığa tıpkı vakitte ırksal ve etnik önyargıları tetikleyecek sıkıntılara niye olacağını açıklıyor.” diye konuştu.
Tanrıkulu, yapay zekanın mağduriyetlere sebep olmadan kullanılması için yapılması gerekenlere dair ayrıntılar vererek, kelamlarını şöyleki sürdürdü:
“Sonuç olarak, yapay zekâ teknolojisi günümüz dünyasında yaşamı kolaylaştıran imkanlar oluşturduğu üzere insan hakları ihlallerini görmemezlikten gelmek yanlışsız bir yaklaşım olmaz. Bu istikametiyle ülkelerin ve karar vericilerin bu hususta daha fazla şeffaf, adil kıymetlendirme ve yapay zekanın kullanmasının tesirleri konusunda daha açık olmalı. Hususun uzmanları bu mevzuda milletlerarası bir aksiyon planının çıkarılması görüşünde.
Tam bu noktada bu teknolojilerin kullanmasını kısıtlamadan çok, bu alanda çalışan şirketlerin milletlerarası hukuk normlarına uyması ve denetlenebiliyor olması esas değerli konulardan. Ancak birinci vakit içinderda günümüz kaidelerine teknoloji ile gelişen bu platformların ülkeler ve aktörler tarafınca tarafsızca ele alınması ve mevzuatın oluşması gerekiyor. Bu durumda yapay zekanın idari ve hukuksal düzenekleri ve uygulamaları gelecekte ülkelerin daha hayli gündeminde olacak.”