19 Temmuz 2025, Cumartesi
No Result
View All Result
Global Manşet - Global Dünyanın Manşetleri
  • Global
  • Manşet
  • Ekonomi
  • Magazin
  • Moda
  • Sağlık
  • Sanat
  • Spor
  • Teknoloji
  • Global
  • Manşet
  • Ekonomi
  • Magazin
  • Moda
  • Sağlık
  • Sanat
  • Spor
  • Teknoloji
No Result
View All Result
Global Manşet - Global Dünyanın Manşetleri
No Result
View All Result
Home Teknoloji

Deepfake görüntülerinin sayısı her yıl %900 oranında artıyor!

by
8 Haziran 2023
in Teknoloji
0
Deepfake görüntülerinin sayısı her yıl %900 oranında artıyor!
0
SHARES
0
VIEWS
FacebookTwitterWhatsappTelegramE-Posta

Dünya Ekonomik Forumu’na (WEF) nazaran çevrimiçi deepfake görüntülerin sayısı her yıl %900 oranında artıyor. Taciz, intikam ve kripto dolandırıcılığı ile ilgili raporlarla birlikte birçok kıymetli deepfake dolandırıcılık olayı haber manşetlerine çıktı. Kaspersky araştırmacıları, kullanıcıların dikkat etmesi gereken ve deepfake kullanan birinci üç dolandırıcılık planına ışık tutuyor. 

Yapay hudut ağlarının, derin öğrenmenin ve hasebiyle deepfake aldatma tekniklerinin kullanımı, dünyanın dört bir yanındaki kullanıcıların yüzlerini yahut bedenlerini dijital olarak değiştirmeye, böylelikle rastgele birinin diğer biri üzere göründüğü gerçekçi imaj, görüntü ve ses malzemelerini üretmeye imkan sağlıyor. Bu manipüle edilmiş görüntü ve imajlar sıklıkla yanlış bilgi yaymak ve öbür berbat niyetli emellerle kullanılıyor.

Finansal dolandırıcılık

Deepfake’ler, hatalıların kurbanları tuzağa çekmek gayesiyle ünlüleri taklit etmek için geliştirdikleri imajların kullanıldığı toplumsal mühendislik tekniklerine mevzu olabiliyor. Örneğin Elon Musk’ın kuşkulu bir kripto para yatırım planından yüksek getiri vaat eden yapay olarak oluşturulmuş bir videosu, geçen yıl süratle yayılarak kullanıcıların para kaybetmelerine neden oldu. Dolandırıcılar bunun üzere uydurma görüntüler yaratmak için ünlülerin imgelerini kullanıyor, eski görüntüleri bir ortaya getiriyor ve toplumsal medya platformlarında canlı yayınlar başlatarak kendilerine gönderilen rastgele bir kripto para ödemesini iki katına çıkarma kelamı veriyor.

Pornografik deepfake

Deepfake’lerin bir öteki kullanım alanı da bireyin mahremiyetini ihlal etmek. Deepfake görüntüler, bir kişinin yüzünün pornografik bir görüntü üzerine yerleştirilmesiyle oluşturulabiliyor ve büyük ziyana ve ezaya neden olabiliyor. Bir hadisede, kimi ünlülerin yüzlerinin müstehcen sahnelerdeki pornografik aktrislerin bedenlerine bindirildiği deepfake görüntülerinin internette yayıldığı ortaya çıktı. Sonuç olarak, bu çeşit hadiselerde akın mağdurlarının prestijleri zedeleniyor ve hakları ihlal ediliyor.

İşe dair riskler

Çoğu vakit deepfake’ler şirket yöneticilerinden haraç alma, şantaj ve endüstriyel casusluk üzere cürümler için işletmeleri amaç almak üzere kullanılıyor. Örneğin, siber hatalılar bir ses deepfake’i kullanarak BAE’deki bir banka müdürünü kandırmayı ve 35 milyon dolar çalmayı başarmıştı. Kelam konusu olayda ikna edici bir deepfake oluşturmak için işvereninin sesinin yalnızca küçük bir kaydının ele geçirilmesi kafiydi. Bir başka vakada, dolandırıcılar en büyük kripto para platformu Binance’i kandırmaya çalıştı. Binance yöneticisi, hiç katılmadığı bir Zoom toplantısı hakkında “Teşekkür ederim!” bildirileri almaya başladığında şaşırdı. Saldırganlar, yöneticinin herkese açık manzaralarıyla bir deepfake oluşturmayı ve bunu çevrimiçi bir toplantıda yönetici ismine konuşarak uygulamayı başardılar.

FBI, insan kaynakları yöneticilerini uyarıyor!

Genel olarak, deepfake’leri kullanan dolandırıcıların hedefleri ortasında dezenformasyon ve kamuoyunu manipüle etme, şantaj ve casusluk yer alıyor. Bir FBI uyarısına göre, insan kaynakları yöneticileri uzaktan çalışmak için başvuran adaylar tarafından deepfake kullanımı konusunda esasen tetikte bekliyor. Binance olayında, saldırganlar deepfake oluşturmak için internetten gerçek şahısların imgeleri kullandılar ve hatta bu bireylerin fotoğraflarını özgeçmişlere eklediler. İnsan kaynakları yöneticilerini bu formda kandırmayı başarırlarsa ve sonrasında bir teklif alırlarsa, devamında patron bilgilerini çalabiliyorlar.

Deepfake’ler büyük bir bütçe gerektiren ve sayıları giderek artan kıymetli bir dolandırıcılık tipi olmaya devam ediyor. Kaspersky tarafından daha evvel yapılan bir araştırma, darknet üzerindeki deepfake’lerin maliyetini ortaya koyuyor. Sıradan bir kullanıcı internette bir yazılım bulur ve bir deepfake yapmaya çalışırsa, sonuç gerçekçi olmayacak ve sahtekarlık bariz oluyor. Çok az insan düşük kaliteli bir deepfake’e inanıyor. Yüz sözündeki gecikmeleri yahut çene halindeki bulanıklığı çabucak fark edebiliyor.

Bu nedenle, siber hatalılar bir akına hazırlanırken büyük ölçüde bilgiye muhtaçlık duyuyor. Taklit etmek istedikleri kişinin fotoğrafları, görüntüleri ve sesleri üzere. Farklı açılar, ışık parlaklığı, yüz sözleri, hepsi sonuncu kalitede büyük rol oynuyor. Sonucun gerçekçi olması için şimdiki bir bilgisayarın gücü ve yazılımı gerekiyor. Tüm bunlar büyük ölçüde kaynak gerektiriyor ve bu kaynağa sadece az sayıda siber hatalı erişebiliyor. Bu nedenle deepfake sağlayabileceği tehlikelere karşın hala son derece az bir tehdit olmaya devam ediyor ve sırf az sayıda alıcı bunu karşılayabiliyor. Sonuç olarak bir dakikalık bir “deepfake’in fiyatı 20 bin ABD dolarından başlıyor.

“Bazen prestij riskleri çok önemli sonuçlar doğurabilir”

Kaspersky’de Kıdemli Güvenlik Uzmanı Dmitry Anikin, şunları söylüyor: “Deepfake’in işletmeler için oluşturduğu en önemli tehditlerden biri her vakit kurumsal bilgilerin çalınması değildir. Bazen prestij riskleri çok önemli sonuçlar doğurabilir. Yöneticinizin (görünüşe göre) hassas hususlarda kutuplaştırıcı açıklamalar yaptığı bir görüntünün yayınlandığını düşünün. Şirket için bu durum pay fiyatlarında süratli bir düşüşe yol açabilir. Lakin, bu türlü bir tehdidin riskleri son derece yüksek olmasına karşın, deepfake oluşturmanın maliyeti ve çok az saldırganın yüksek kaliteli bir deepfake oluşturabilmesi nedeniyle bu biçimde akına uğrama bahtınız son derece düşüktür. Bu mevzuda yapabileceğiniz şey, deepfake görüntülerin temel özelliklerinin farkında olmak ve size gelen sesli ileti ve görüntülere kuşkuyla yaklaşmaktır. Ayrıyeten, çalışanlarınızın deepfake’in ne olduğunu ve nasıl fark edebileceklerini anladıklarından emin olun. Örneğin sarsıntılı hareket, cilt tonunda kaymalar, garip göz kırpma yahut hiç göz kırpmama üzere işaretler belirleyici olacaktır.”

Darknet kaynaklarının daima olarak izlenmesi, deepfake sanayisi hakkında bedelli bilgiler sağlayarak araştırmacıların bu alandaki tehdit aktörlerinin en son eğilimlerini ve faaliyetlerini takip etmelerine imkan sağlıyor. Araştırmacılar darknet’i izleyerek deepfake’lerin oluşturulması ve dağıtımı için kullanılan yeni araçları, hizmetleri ve pazar yerlerini ortaya çıkarabiliyor. Bu çeşit bir izleme, deepfake araştırmasının kritik bir bileşenini oluşturuyor ve gelişen tehdit ortamına ait anlayışımızı geliştirmemize yardımcı oluyor. Kaspersky Dijital Ayak İzi İstihbaratı hizmeti, müşterilerinin deepfake ile ilgili tehditler kelam konusu olduğunda bir adım önde olmalarına yardımcı olmak için bu çeşit bir izleme içeriyor.

Kaspersky Daily’de deepfake sanayisi hakkında daha fazla bilgi edinebilirsiniz.

Kaspersky, deepfake’lerle ilgili tehditlerden korunmak için şunları öneriyor:

  • Kuruluşunuzdaki siber güvenlik uygulamalarını denetim edin- sadece yazılım açısından değil, gelişmiş BT marifetleri açısından da. Mevcut tehdit ortamının önüne geçmek için Kaspersky Threat Intelligence kullanın. 
  • Kurumsal “insan güvenlik duvarını” güçlendirin. Çalışanlarınızın deepfake’in ne olduğunu, nasıl çalıştıklarını ve oluşturabilecekleri zorlukları anladığından emin olun. Çalışanlara bir deepfake’i nasıl tespit edeceklerini öğretmek için daima farkındalık ve eğitim çalışmaları yapın. Kaspersky Automated Security Awareness Platform, çalışanların en yeni tehditler konusunda aktüel kalmasına yardımcı olur ve dijital okuryazarlık düzeylerini artırır.
  • Kaliteli haber kaynaklarına başvurun. Cehalet ve bilgi eksikliği deepfake’lerin yaygınlaşmasında kıymetli bir etken olmaya devam etmektedir. 
  • ‘Güven ancak doğrula’ üzere sağlam protokolleri devreye alın. Sesli ileti ve görüntülere kuşkuyla yaklaşmak insanların asla kandırılmayacağını garanti etmez, lakin yaygın tuzakların birçoklarından kaçınmaya yardımcı olabilir. 
  • Deepfake kurbanı olmamak için görüntülerin dikkat edilmesi gereken temel özelliklerinin farkında olun. Sarsıntılı hareket, bir kareden başkasına ışıkta kaymalar, cilt tonunda değişimler, garip göz kırpmalar yahut hiç göz kırpmama, konuşmayla ahenk sağlamayan dudaklar, imajdaki dijital yapaylıklar, kasıtlı olarak düşük kalitede kodlanmış ve zayıf aydınlatmaya sahip görüntüler üzere.

 

Kaynak: (BYZHA) Beyaz Haber Ajansı

Tags: 0artıyorDeepfakegörüntülerininheroranındasayısısesTehditteknolojiVideoyılYönetici

Related Posts

Avrupa savunma sanayisinde vazgeçilmez ortak Türkiye!
Gündem

Avrupa savunma sanayisinde vazgeçilmez ortak Türkiye!

3 Şubat 2025
Uraloğlu’ndan operatörlere 5G ihalesi mesajı
Gündem

Uraloğlu’ndan operatörlere 5G ihalesi mesajı

3 Şubat 2025
IBM şaşaalı günlerine geri mi dönüyor?
Global

IBM şaşaalı günlerine geri mi dönüyor?

31 Ocak 2025
Next Post
ESET’ten fark yaratan sonuçlar

ESET'ten fark yaratan sonuçlar

Hemoroid Meselesine Bluetooth Teknolojisi İle Tahlil

Hemoroid Meselesine Bluetooth Teknolojisi İle Tahlil

Hareketsiz hayat ve kilo bel ağrısı nedeni

Hareketsiz hayat ve kilo bel ağrısı nedeni

Bir yanıt yazın Yanıtı iptal et

E-posta adresiniz yayınlanmayacak. Gerekli alanlar * ile işaretlenmişlerdir

Kategoriler

  • Analizler (1)
  • Basketbol (17)
  • Borsa (47)
  • Borsa Haberleri (35)
  • Borsa Şirketleri (1)
  • Diğer (1)
  • DÖVİZ (82)
  • Döviz Haberleri (77)
  • Eğlence (1)
  • Ekonomi (4.479)
  • Ekonomi Haberleri (1.091)
  • Emtia Haberleri (88)
  • Finans (52)
  • Futbol (1.150)
  • Gezi (1)
  • Global (1.442)
  • Gündem (19.210)
  • Haberler (4.823)
  • Halka Arz (1)
  • Hisse Senedi (3)
  • Kripto Haberleri (5)
  • Magazin (511)
  • Manşet (6.036)
  • Moda (8)
  • Piyasalar (55)
  • Sağlık (1.373)
  • Sanat (2.864)
  • Şirketler (6)
  • Spor (1.806)
  • Teknoloji (1.646)
  • Tv & Sinema (16)
  • Voleybol (13)
  • Yaşam (5)

Sizin İçin Seçtiklerimiz

Lider Altay: “28 İlçemizdeki Yaz Spor Okullarına Katılan Öğrencilerimize Muvaffakiyetler Diliyorum”

Lider Altay: “28 İlçemizdeki Yaz Spor Okullarına Katılan Öğrencilerimize Muvaffakiyetler Diliyorum”

2 yıl ago
Mourinho’dan ‘derbi’ açıklaması: Kaçmadım

Mourinho’dan ‘derbi’ açıklaması: Kaçmadım

10 ay ago
En büyük kent sergisi  “Sarının İzi”

En büyük kent sergisi  “Sarının İzi”

2 yıl ago
Karşıyaka’da çocuklar hayallerindeki bisikletlere kavuştu

Karşıyaka’da çocuklar hayallerindeki bisikletlere kavuştu

2 yıl ago

Etiket Bulutu

100 alan bakan başkan başkanı başladı belediye belediyesi bir birinci büyükşehir Cumhuriyet devam dünya ediyor ekonomi etti: eğitim global gün gündem haberler hizmet ile için lider magazin manşet milyon oldu oyun proje sanat sağlık spor teknoloji türk türkiye yeni yol ziyaret Çocuk İstanbul İzmir İş
No Result
View All Result
Kızılay Web Banner 300X300

Öne Çıkanlar

Santorini’de OHAL ilan edildi

Erdoğan: Yılbaşına kadar 453 bin konut yapacağız

Dikkat! YKS başvuruları başladı

BUDO ve İDO’da sefer iptalleri

Merkez Bankası rezervleri zirveden döndü

Teğmenler neden ihraç edildi? MSB açıkladı

Popüler Haberler

IMF’den Trump’ın ticari tarifleri için ‘yapıcı yol’ çağrısı
Global

IMF’den Trump’ın ticari tarifleri için ‘yapıcı yol’ çağrısı

by Global Manşet
6 Şubat 2025
0

IMF Sözcüsü Kozack, Trump'ın açıkladığı ticari tarifleri izlediklerini belirterek "Bu sorunu çözmek için yapıcı bir yol bulmanın...

Rusya’da uçak düştü: 2 ölü

Rusya’da uçak düştü: 2 ölü

6 Şubat 2025
Galatasaray Boluspopr’u 4 -1 mağlup etti

Galatasaray Boluspopr’u 4 -1 mağlup etti

6 Şubat 2025
Santorini’de OHAL ilan edildi

Santorini’de OHAL ilan edildi

6 Şubat 2025
Erdoğan: Yılbaşına kadar 453 bin konut yapacağız

Erdoğan: Yılbaşına kadar 453 bin konut yapacağız

6 Şubat 2025
Instagram Twitter

Kategoriler

  • Analizler (1)
  • Basketbol (17)
  • Borsa (47)
  • Borsa Haberleri (35)
  • Borsa Şirketleri (1)
  • Diğer (1)
  • DÖVİZ (82)
  • Döviz Haberleri (77)
  • Eğlence (1)
  • Ekonomi (4.479)
  • Ekonomi Haberleri (1.091)
  • Emtia Haberleri (88)
  • Finans (52)
  • Futbol (1.150)
  • Gezi (1)
  • Global (1.442)
  • Gündem (19.210)
  • Haberler (4.823)
  • Halka Arz (1)
  • Hisse Senedi (3)
  • Kripto Haberleri (5)
  • Magazin (511)
  • Manşet (6.036)
  • Moda (8)
  • Piyasalar (55)
  • Sağlık (1.373)
  • Sanat (2.864)
  • Şirketler (6)
  • Spor (1.806)
  • Teknoloji (1.646)
  • Tv & Sinema (16)
  • Voleybol (13)
  • Yaşam (5)

Copyright © 2023 | www.globalmediaas.com.tr

Sayfalar

  • Künye ve İletişim
  • Gizlilik ve Çerez Politikaları
  • Üye ve Ziyaretçi Aydınlatma Metni
  • Ziyaretçi Aydınlatma Metni
  • Çalışan ve Stajyer Aydınlatma Metni
  • Müşteri Adayı KVKK Aydınlatma Metni

COPYRİGHT © 2023 GLOBAL MEDİA YAYIN PLATFORMLARI A.Ş

No Result
View All Result
  • Global
  • Manşet
  • Ekonomi
  • Magazin
  • Moda
  • Sağlık
  • Sanat
  • Spor
  • Teknoloji

COPYRİGHT © 2023 GLOBAL MEDİA YAYIN PLATFORMLARI A.Ş