Uluslararası otoriteler, yapay zekânın taşıdığı birçok olumlu potansiyelinin yanında, tehdit yahut tehlike potansiyelinin de göz arkası edilmemesi gerektiğini konusunda hemfikir. Yapay zekânın son birkaç yılda gösterdiği harikulâde gelişim ve kullanıldığı alanlardaki sonuçlara dikkat çeken Dr. Öğr. Üyesi Nuri Bingöl, yapay zekâ teknolojisindeki gelişimin birtakım düzenleme ve kontrollere tabi olması gerektiğini söylüyor. Fikir ayrılıklarının ‘bu kontrolün nasıl ve kimler tarafından uygulanacağı’ konusunda olduğunu belirten Bingöl, bu yetkinin tek elde toplanması olarak düşünülmemesi gerektiğine vurgu yapıyor.
Üsküdar Üniversitesi Yapay Zekâ Mühendisliği Yüksek Lisans Programı Anabilim Kolu Lideri Dr. Öğr. Üyesi Nuri Bingöl, süratle gelişen yapay zekâ teknolojilerinin ulusal ve global manada nasıl denetlenmesi, ne cins sonların getirilmesi gerektiği ve tüm bunların önünde ne üzere pürüzler olduğuna dair açıklamalarda bulundu.
Bilgi birikimini, yapay zekânın yararını maksimize edecek biçimde kullanmanın tam zamanı
Yapay zekânın taşıdığı birçok olumlu potansiyelinin yanında, tehdit yahut tehlike potansiyelinin de göz arkası edilmemesinin kıymetli olduğunu belirten Dr. Öğr. Üyesi Nuri Bingöl, “İnsanlık bu hususta deneyimli ve bu tecrübeyi süratlice pratiklere çevirmeli. Daha evvelki devrimsel teknolojik gelişmelerin yol açtığı olumlu yahut olumsuz sonuçlardan çok şey öğrendik. Bu bilgi birikimini, yapay zekânın yararını maksimize edecek biçimde kullanmanın tam vaktidir.” dedi.
Yapay zekâ üzerindeki kontrolün nasıl uygulanacağı konusunda fikir ayrılıkları var
Düşünceleri ile bugünün toplumlarına taraf veren birçok otorite ve hatta yapay zekânın gelişmesinde değerli rol oynayan insanların dahi, emsal kanıları paylaştıklarını tabir eden Bingöl, “Yapay zekânın son birkaç yılda gösterdiği harikulâde gelişim ve kullanıldığı alanlardaki sonuçlar gösteriyor ki, yapay zekâ teknolojisindeki gelişim, kimi düzenleme ve kontrollere tabi olmalı. Fikir ayrılıkları bu bahiste değil, ‘bu kontrolün nasıl uygulanacağı’ üzerinedir.” halinde konuştu.
Hangi etabının denetleneceğine nazaran önlemler değişiyor
Tartışmaların ve fikir ayrılıklarının, kontrolün nasıl uygulanacağı noktasında ağırlaşmasının sebeplerine de değinen Bingöl, bu sebepleri şöyle açıkladı:
“Yapay zekâ teknolojileri dayanılmaz bir güçtür ve bu gücün yalnızca bir kurumun elinde toplanmasının getireceği meseleler var. Bu teknolojiler tabiatı gereği iki etaplı bir eserdir. Birincisi yapay zekânın kapasitesinin geliştirilmesi, ikincisi de belli bir emel için kullanılması. Bu iki basamaktan hangisi kontrole tabi tutulmalı yahut sonlandırılmalı? Hangi kademesi daha fazla potansiyel tehdit yahut tehlike içeriyor? Doğal olarak bu sorunun karşılığına nazaran alınabilecek önlemler de değişiyor. ‘Nasıl uygulanacağı’ sorusu farklı bir mana kazanıyor.”
Teknoloji üzerinde çok bir kontrol ve sonlandırma, yararlarının azalmasına yol açar
Yapay zekânın kontrol ve sonlandırmasının hangi seviyede olacağı konusuna da dikkat çeken Bingöl, “Unutmamak gerekir ki teknoloji üzerinde çok bir kontrol ve sonlandırma, o teknolojinin gelişmesinden doğan yararların da azalmasına yol açar. Halbuki insanlığın önünde büyük varoluşsal sorunlar var ve yapay zekâ teknolojileri bu bahislerde büyük potansiyel taşıyor.” dedi.
Bingöl, yapay zekâ konusunun kıymetli isimlerinden Andrew Ng’nin, ‘İnsanlığın büyük bir kısmı için varoluşsal riskleri düşündüğümde: Bir sonraki salgın, iklim değişikliği ve sonucunda kitlesel nüfus azalması, diğer bir asteroit tehlikesi… Yapay zekâ, çözümlerimizin kıymetli bir modülü olacak. Hasebiyle, insanlığın önündeki bin yıl boyunca hayatta kalmasını ve gelişmesini istiyorsak, yapay zekânın daha süratli çalışmasını sağlayalım, daha yavaş değil.’ biçimindeki paylaşımının dikkat cazibeli olduğunu da kelamlarına ekledi.
Denetim ve sonlandırmalar etik boyutu da kapsamalı
Yapay zekânın kontrol ve sonlandırmalarının, yalnızca tehdit ve tehlike boyutu üzerinde tesirli olmaması gerektiğini belirten Bingöl, “Bunlar kadar kıymetli ‘etik’ boyutu da var. Çok küçük kapasiteli yapay zekâ ürünleriyle bile, kimi ferdî ihlal ve tehditler yaratabilir. Bilhassa bir kişi, kurum yahut bir insan topluluğu gaye olarak alınabilir. Dolayısı ile kontrol ve sonlandırma muhtaçlığını yalnızca çok büyük kapasiteli yapay zekâ teknolojisi üreten yahut kullanan taraflar olarak düşünmemek gerekiyor. Kontrol ve sonlandırmalar hem büyük boyutlu hem de yerine nazaran küçük boyutlu yapay zekâ kapasitesi için geçerli olabilmeli.” biçiminde konuştu.
Kişisel data güvenliği ve etik konusu için atılan adımlar, kontrol ve sonlandırmalar üzerine bir temel oluşturabilir
Denetim ve sonlandırmaların nasıl uygulanacağı konusunun standartlaşması ve yönetmeliklerinin oluşmasının vakit alacak üzere göründüğünü tabir eden Bingöl, “Bu alanda tartışma ve fikirler gelişmeye devam ederken, Avrupa Birliği Genel Data Muhafaza Tüzüğü veya ülkemizde uygulanan haliyle Kişisel Dataların Korunması Kanunu gibi geçmiş deneyimlerin içine, yapay zekâ ile ilgili kimi pratik yönetmelikleri ve düzenlemeleri bugünden koymak ve bir yönetimsel çerçeve oluşturmak kıymetli. Zira ferdî bilgi güvenliği ve etik konusu için atılan adımlar, yapay zekânın kontrol ve sonlandırmaları üzerine bir fikir ve pratik temeli oluşturabilir. Datanın hangi kaynaktan ne büyüklükte ve ne hedefle kullanıldığı, nasıl korunduğu ve paylaşıldığı üzerine inşa edilmiş bu mevzuatlar yapay zekânın kapasite geliştirme etabı için kıymetli bir ögedir ve en azından bu açıdan bir denetim temeli oluşturabilir.” biçiminde konuştu.
‘Bilişim Hukuku’ ögelerinin dikkatini bu bahse çekmeliyiz
Diğer bir ögenin ise bilgi süreç gücü ve güç tüketiminin yönetilmesi olduğunu aktaran Bingöl, “Bu alandaki kontrol ve sonlandırmalar ‘Blok Zincir (Blockchain)’ teknolojisinin oluşturduğu birtakım problemlere tahlil olabilmiş ve teknolojinin daha olumlu tarafa yönelmesine katkı sağlamıştır. Benzeri mevzuatlar, dolaylı olarak yapay zekâ teknolojisinin üzerinde de tesirli olabilir.” dedi.
Öncelikle yapay zekâ tarafından üretilen düzmece içeriklerin tespit edilmesi ve yaptırımların neler olması gerektiğinin kararlaştırılması gerektiğine dikkat çeken Bingöl, “Yalnızca geçersiz bilgi barındıran değil, hakikat bilgi barındıran lakin bunu bir kümesi manipüle etmek yahut bir kümeye çıkar devşirmek için yapay zekâ tarafından oluşturulan içeriklerin de önüne geçilmeli. Toplanan kullanıcı bilgileri sayesinde bireyleri hedefleyen yapay zekâ tarafından oluşturulmuş her türlü siyasi ve ticari kampanya sonlandırılmalı ki özgür irade özgür kalmaya devam etsin. Vakit kaybetmeden yapay zekâ odaklı bakış açısı ile ‘Veriye Erişim ve Bilgi Süreç Gücünün Kullanımı’ kavramlarının, mevcut yasa ve yönetmelikler ile münasebetini kurmaya başlamalıyız. Bilhassa ‘Bilişim Hukuku’ ögelerinin dikkatini bu bahse çekmeliyiz.” biçiminde konuştu.
Merkezi bir irtibat ve kontrol oluşturmak neredeyse imkânsız
İnsanların kolay kolay ulaşabileceği ve ulaştığında hem kendi hem de oburlarının hayatlarına tesir edebileceği bir teknolojinin denetlenmesi gerektiğine vurgu yapan Dr. Öğr. Üyesi Nuri Bingöl, “Ancak sadece bir bilgisayar ve biraz matematik bilgisi ile oluşturulabilen yapay zekâ modellerinin tamamı üzerinde bir kontrol düzeneği kurulması pek de mümkün gözükmüyor.” dedi.
Yapay zekâ teknolojisinin bir kontrol ve sonlandırmaya tabi olmasının, kaçınılmaz olarak bu yetkinin tek elde toplanması olarak düşünülmemesi gerektiğini belirten Bingöl, kelamlarını şöyle tamamladı:
“Hatta günümüz teknolojileri merkeziyetsiz alt yapılar üzerine odaklanıyor ve bu alanda birçok gelişme yaşanıyor. Kaldı ki yapay zekâ teknolojilerinin bir kez üretildikten sonra, rastgele bir merkeze hatta internete bağlı olmadan gömülü sistemler olarak çalışabilmesi, en azından kullanım kademesi için bir özgürlük sağlıyor. Bu kabiliyete sahip yapay zekâ sistemleri için, günümüzde her alanda görüldüğünden, merkezi bir irtibat ve kontrol oluşturmak neredeyse imkânsız.”
Kaynak: (BYZHA) Beyaz Haber Ajansı