Yapay zeka dayanaklı teknolojilerin, yüz yüze etkileşimleri azaltarak toplumsal izolasyonu kolaylaştırma potansiyeline sahip olduğunu söz eden uzmanlar, toplumsal medya platformlarında kullanılan yapay zeka algoritmalarının, bireylerin sadece mevcut inançlarıyla uyumlu bilgi ve görüşlere maruz kaldığı yankı odalarının oluşumuna katkıda bulunabileceğini söylüyor.
Yapay zeka takviyeli algoritmaların kamuoyunu manipüle etmek, yanlış bilgi yaymak ve ziyanlı içeriği artırmak için kullanılabileceğini kaydeden Prof. Dr. Burhan Pektaş, “Bu durum bilgi kaynaklarına olan inancı zedeleyebilir ve toplumsal bölünmelere ve baş karışıklığına yol açabilir.” dedi.
Üsküdar Üniversitesi Mühendislik ve Tabiat Bilimleri Fakültesi (MDBF) Bilgisayar Mühendisliği (İng) Kısmı Lideri Prof. Dr. Burhan Pektaş, yapay zekanın insanların hayatına müdahale edip edemeyeceği konusunu kıymetlendirdi.
“Yapay zeka takviyeli teknolojiler toplumsal izolasyonu kolaylaştırıyor”
Prof. Dr. Burhan Pektaş, sanal asistanlar ve toplumsal medya algoritmaları üzere yapay zeka takviyeli teknolojilerin, yüz yüze etkileşimleri azaltarak ve dijital bağlantıya bağımlılığı teşvik ederek toplumsal izolasyonu kolaylaştırma potansiyeline sahip olduğunu söz etti. Pektaş, “Sosyal medya platformlarında kullanılan yapay zeka algoritmaları, bireylerin sırf mevcut inançlarıyla uyumlu bilgi ve görüşlere maruz kaldığı yankı odalarının oluşumuna katkıda bulunabilir. Bu, toplumsal kutuplaşmayı şiddetlendirebilir ve farklı kümeler ortasındaki yapan diyaloğu engelleyebilir.” dedi.
“Toplumsal bölünmelere ve baş karışıklığına yol açabilir”
Yapay zeka dayanaklı algoritmaların kamuoyunu manipüle etmek, yanlış bilgi yaymak ve ziyanlı içeriği artırmak için kullanılabileceğini kaydeden Prof. Dr. Burhan Pektaş, “Bu durum bilgi kaynaklarına olan itimadı zedeleyebilir ve toplumsal bölünmelere ve baş karışıklığına yol açabilir. Bu tehlikeleri azaltmak için yapay zekanın toplumsal bağlamlarda sorumlu tasarımı, dağıtımı ve kullanımına yönelik sağlam etik kurallar, düzenlemeler ve hesap verebilirlik sistemleri geliştirmek ve uygulamak kıymetlidir.” diye konuştu.
“Yapay zeka teknolojileriyle bağlantılı potansiyel risklere ait farkındalığı teşvik etmek önemli”
Dijital okuryazarlığı, eleştirel düşünme maharetlerini ve yapay zeka teknolojileriyle alakalı potansiyel risklere ait farkındalığı teşvik etmenin giderek yapay zekanın yönlendirdiği bir dünyada bireyleri toplumsal etkileşimlerde gezinme konusunda güçlendirebileceğini de anlatan Prof. Dr. Burhan Pektaş, şunları lisana getirdi:
“Yapay Zeka (AI) ile insan hayatı ortasında bir istikrar kurmak, AI teknolojilerinin yarar ve risklerinin dikkatli bir halde değerlendirilmesini ve ayrıyeten AI’nın insanlığın çıkarlarına en uygun biçimde hizmet etmesini sağlayacak stratejilerin uygulanmasını gerektirir. Buna nazaran yapay zeka sistemlerinin tasarımı, geliştirilmesi ve devreye alınmasında etik konulara öncelik verilmesi gerekir. Bu, yapay zeka hayat döngüsü boyunca şeffaflığın, adaletin, hesap verebilirliğin ve insan haklarına hürmetin sağlanmasını içerir.
“Yapay zeka teknolojilerinin tasarım sürecine kullanıcılar dahil edilmeli”
Diğer yandan yapay zeka teknolojilerinin sorumlu kullanımını yönetmek için düzenleyici çerçeveleri ve standartları uygulamalıyız. Bu çerçeveler bilgi saklılığı, algoritmik önyargı, otonom sistemler ve yapay zeka uygulamalarının etik sonuçları üzere mevzuları ele almalıdır. Yapay zeka sistemlerinin dizaynında insan gereksinimlerine, kıymetlerine ve tercihlerine öncelik verilmelidir. Yapay zeka teknolojilerinin sezgisel, kullanıcı dostu ve insani pahalar ve maksatlarla uyumlu olmasını sağlamak için tüm kullanıcıları tasarım sürecine dahil edilmesi değer arz etmektedir.”
“Tasarımcılar, toplumsal tesirleri dikkate almada ahlaki bir sorumluluğa sahip”
Yapay Zekanın (AI), etik sonuçları olan karar verme süreçlerinde giderek daha fazla rol oynadığına da vurgu yapan Prof. Dr. Burhan Pektaş, “Yapay zeka sistemlerini oluşturmaktan sorumlu dizayncılar, geliştiriciler ve mühendisler, bu sistemlerin etik olarak ve potansiyel toplumsal tesirler dikkate alınarak tasarlanmasını sağlamak konusunda ahlaki bir sorumluluğa sahiptir.” dedi.
“Gizlilik ihlalleri ve istenmeyen sonuçlar üzere mümkün ziyanları azaltmak için adımlar atılmalı”
Bunun, tasarım sürecinde önyargı, adalet, şeffaflık ve hesap verebilirlik üzere bahislerin ele alınmasını da içerdiğini lisana getiren Prof. Dr. Burhan Pektaş, “Ayrıca, yapay zeka teknolojilerini dağıtanlar ve kullananlar, hareketlerinin sonuçlarının ahlaki sorumluluğunu taşırlar. Bu, yapay zeka sistemlerinin sorumlu ve etik bir halde kullanılmasını sağlamayı ve ayrımcılık, kapalılık ihlalleri ve istenmeyen sonuçlar üzere muhtemel ziyanları azaltmak için adımlar atmayı içerir.” formunda bilgi verdi.
“Bu sistemlerin hareketlerinin ahlaki sorumluluğunu kimin üstlenecek?”
Diğer istikametten yapay zeka sistemleri daha özerk hale geldikçe ve insan müdahalesi olmadan karar verme kapasitesine sahip hayli, bu sistemlerin hareketlerinin ahlaki sorumluluğunu kimin üstleneceğine dair soruların da ortaya çıktığını kaydeden Prof. Dr. Burhan Pektaş, kelamlarını şöyle tamamladı:
“Açık hesap verebilirlik çizgileri oluşturmak ve sorumluluk ve yükümlülük hususlarını ele alacak uygun düzeneklerin mevcut olmasını sağlamak çok değerlidir. Yapay zeka sistemleri ekseriyetle sıhhat hizmetleri, ceza adaleti ve otonom araçlar üzere mevzularda etik sonuçları olan kararlar verir. Yapay zeka sistemlerinin geliştirilmesinde ve devreye alınmasında yer alan kişi ve kuruluşlar, bu sistemlerin etik prensip ve pahalarla dengeli kararlar vermesini sağlamak konusunda ahlaki bir sorumluluğa sahiptir.
Genel olarak yapay zekanın insan ömrüne müdahalesi, ahlaki sorumlulukla ilgili karmaşık etik soruları gündeme getiriyor; yapay zeka teknolojilerinin etik unsurlarla uyumlu ve bireylerin refahını ve bir bütün olarak toplumu teşvik edecek biçimde geliştirilmesini ve kullanılmasını sağlamak için çeşitli paydaşlar ortasında dikkatli bir kıymetlendirme ve işbirliği yapılmasını gerektiriyor.”
Kaynak: (BYZHA) Beyaz Haber Ajansı