Mavi Kadın - Kadına Özel Kadın Sitesi
- Güncelleme Tarihi:

Esra Erol yapay zeka dolandırıcılarının hedefi oldu: Yasal yollara başvurdu

Mavi Kadın>Magazin>Esra Erol yapay zeka dolandırıcılarının hedefi oldu: Yasal yollara başvurdu

Yapay zeka dolandırıcılarının bu kez hedefi Esra Erol oldu. Dolandırıcılar, daha önce paylaşılan bir videonun sesi ve görüntüsünü yapay zeka tabanlı bir yöntemle değiştirdi. Ünlü sunucu bu videoyla insanların kandırıldığını fark edince yasal yollara başvurdu.

Esra Erol yapay zeka dolandırıcılarının hedefi oldu: Yasal yollara başvurdu

Ünlü sunucu Esra Erol'u hedef alan dolandırıcılar daha önce yayınladığı bir videosunun sesini ve görüntüsünü değiştirerek yapay zeka tabanlı yöntemle insanları kandırdılar.Dolandırıcılar, Erol'un videosunu BOTAS'ın logosunu kullanarak "yatırım fırsatı" başlığıyla sosyal medyada ve bazı internet sitelerinde paylaştılar.

ESRA EROL'UN AVUKATINDAN AÇIKLAMA

Esra Erol, sesi ve görüntüsü kullanılarak insanların kandırıldığını fark edince, yasal yollara başvurdu. Erol'un avukatı Hülya Kuran, konuyla ilgili yaptığı açıklamada, "Sosyal medya ve bazı internet sitelerinde BOTAS'ın logosu ve müvekkil Esra Erol Özbir'in görselleri ve sesi kullanılarak, hatta inandırıcılığı arttırmak adına deepfake yöntemiyle 'yatırım fırsatı' gibi başlıklarla yayınlanan ilanlar, oltalama yöntemiyle dolandırıcılık girişimidir. Bu durum mali ve hukuki açıdan suç teşkil etmektedir. Bahse konu internet siteleri ve hesaplar hakkında yasal işlemler ivedilikle başlatılmıştır. Dijital mecralarda, para kazandırma vaadiyle yürütülen bu tür dolandırıcılık faaliyetlerine itibar etmeyiniz" ifadelerini kullandı.

Esra Erol yapay zeka dolandırıcılarının hedefi oldu: Yasal yollara başvurdu

"HUKUKİ SÜRECİ BAŞLATTIK"

Ünlü sunucu Esra Erol, sahte videoyu kendi Instagram hesabından paylaşarak, "Değerli takipçilerim, sosyal medyada ve bazı internet sitelerinde BOTAS'ın logosu ve benim görsellerim ve sesim kullanılarak 'yatırım fırsatı' gibi başlıklar altında yayınlanan ilanlar oltalama yöntemiyle dolandırıcılık girişimidir. Bu tür dolandırıcılara itibar etmeyiniz. Hukuki süreci başlattık" dedi.

Esra Erol yapay zeka dolandırıcılarının hedefi oldu: Yasal yollara başvurdu

DEEPFAKE YÖNTEMİ NEDİR?

Deepfake yöntemi, yapay zeka kullanarak bir kişinin yüzünü veya sesini başka bir kişininki ile değiştiren bir tekniktir. Bu yöntem genellikle dolandırıcılar tarafından insanları kandırmak amacıyla kullanılmaktadır.

Kaynak : Mavi Kadın
Editör : İrem Çınar
Google News
Etiketler
Mavi Kadın
UYARI: Küfür, hakaret, bir grup, ırk ya da kişiyi aşağılayan imalar içeren, inançlara saldıran yorumlar onaylanmamaktır. Türkçe imla kurallarına dikkat edilmeyen, büyük harflerle yazılan metinler dikkate alınmamaktadır.
Sonraki Haber Yükleniyor...