<?xml version="1.0" encoding="UTF-8"?><rss version="2.0"
	xmlns:content="http://purl.org/rss/1.0/modules/content/"
	xmlns:wfw="http://wellformedweb.org/CommentAPI/"
	xmlns:dc="http://purl.org/dc/elements/1.1/"
	xmlns:atom="http://www.w3.org/2005/Atom"
	xmlns:sy="http://purl.org/rss/1.0/modules/syndication/"
	xmlns:slash="http://purl.org/rss/1.0/modules/slash/"
	>

<channel>
	<title>deepfake | En Gazete</title>
	<atom:link href="https://www.engazete.com.tr/tag/deepfake/feed" rel="self" type="application/rss+xml" />
	<link>https://www.engazete.com.tr/tag/deepfake</link>
	<description>Son Dakika Haberleri ve Türkiye Gündemi</description>
	<lastBuildDate>Mon, 02 Mar 2026 09:19:00 +0000</lastBuildDate>
	<language>tr</language>
	<sy:updatePeriod>
	hourly	</sy:updatePeriod>
	<sy:updateFrequency>
	1	</sy:updateFrequency>
	

<image>
	<url>https://cdn.engazete.com.tr/2025/06/cropped-favv-32x32.webp</url>
	<title>deepfake | En Gazete</title>
	<link>https://www.engazete.com.tr/tag/deepfake</link>
	<width>32</width>
	<height>32</height>
</image> 
	<item>
		<title>Her duyduğunuza inanmayın</title>
		<link>https://www.engazete.com.tr/her-duydugunuza-inanmayin-616876</link>
		
		<dc:creator><![CDATA[Cenk Şefik]]></dc:creator>
		<pubDate>Mon, 02 Mar 2026 09:19:00 +0000</pubDate>
				<category><![CDATA[TEKNOLOJİ]]></category>
		<category><![CDATA[deepfake]]></category>
		<category><![CDATA[duyduğunuza]]></category>
		<category><![CDATA[inanmayın]]></category>
		<category><![CDATA[ses]]></category>
		<guid isPermaLink="false">https://www.engazete.com.tr/?p=616876</guid>

					<description><![CDATA[<p>Gördüğümüz ve duyduğumuz  şeylere inandığımız günler geride kaldı. Üretken yapay zekâ (GenAI), deepfake ses ve video oluşturmayı o kadar kolaylaştırdı ki sahte bir klip oluşturmak bir iki düğmeye basmak kadar kolay hâle geldi</p>
<p><a href="https://www.engazete.com.tr/her-duydugunuza-inanmayin-616876">Her duyduğunuza inanmayın</a> yazısı ilk önce <a href="https://www.engazete.com.tr">En Gazete</a> üzerinde ortaya çıktı.</p>
]]></description>
										<content:encoded><![CDATA[<p><strong>Gördüğümüz ve duyduğumuz  şeylere inandığımız günler geride kaldı. Üretken yapay zekâ (GenAI), deepfake ses ve video oluşturmayı o kadar kolaylaştırdı ki sahte bir klip oluşturmak bir iki düğmeye basmak kadar kolay hâle geldi. Bu, işletmeler dâhil herkes için kötü bir haber. Siber güvenlik şirketi ESET işletmelerin karşılaşabileceği telefon dolandırıcılığı risklerini inceledi ve deepfake’lerin nasıl anlaşılabileceğine yönelik bilgiler paylaştı. </strong></p>
<p>Deepfake’ler, dolandırıcıların Müşterini Tanı ve hesap doğrulama kontrollerini atlatmasına yardımcı oluyor. En büyük tehditler arasında  finansal havale dolandırıcılığı ve yönetici hesaplarının ele geçirilmesi yer alıyor.</p>
<p><strong>Telefon dolandırıcılığı saldırıları nasıl gerçekleşiyor?</strong></p>
<p>Saldırgan, taklit edeceği kişiyi seçer. Bu kişi bir CEO, CFO veya hatta bir tedarikçi olabilir. Çevrimiçi olarak bir ses örneği bulurlar. Bu, düzenli olarak kamuoyuna konuşan yüksek profilli yöneticiler için oldukça kolaydır. Bu örnek, bir sosyal medya hesabından, bir kazanç raporu konferansından, bir video veya TV röportajından veya başka herhangi bir kaynaktan alınabilir. Birkaç saniyelik bir kayıt yeterli olacaktır. Arayacakları kişiyi seçerler. Bu, biraz masa başı araştırması gerektirebilir. Genellikle LinkedIn’de IT yardım masası personeli veya finans ekibi üyeleri aranır.  Kişiyi doğrudan arayabilir veya önceden bir e-posta gönderebilirler – örneğin, acil bir para transferi, parola veya çok faktörlü kimlik doğrulama (MFA) sıfırlama talebi için CEO veya vadesi geçmiş bir fatura için ödeme talep eden bir tedarikçi. GenAI tarafından üretilen deepfake sesini kullanarak CEO veya tedarikçiyi taklit ederek önceden seçilen hedefi ararlar. Araca bağlı olarak, önceden yazılmış konuşmaya sadık kalabilirler veya saldırganın sesinin kurbanın sesine neredeyse gerçek zamanlı olarak çevrildiği daha sofistike bir “konuşmadan konuşmaya” yöntemi kullanabilirler.</p>
<p><strong>Duymak inanmaktır</strong></p>
<p>Bu tür saldırılar giderek daha ucuz, daha kolay ve daha ikna edici hâle geliyor. Bazı araçlar, taklit edilen sesin daha inandırıcı olması için arka plan gürültüsü, duraklamalar ve kekemelikler bile ekleyebiliyor. Her konuşmacıya özgü ritimleri, tonlamaları ve sözel tikleri taklit etmede giderek daha başarılı hâle geliyorlar. Saldırı telefonla gerçekleştirildiğinde dinleyici için yapay zekâ ile ilgili aksaklıkları fark etmek daha zor olabilir. Saldırganlar, hedeflerine ulaşmak için dinleyiciye taleplerine acilen yanıt vermesi için baskı yapmak gibi sosyal mühendislik taktikleri de kullanabilir. Bir başka klasik taktik ise dinleyiciyi talebi gizli tutması için zorlamaktır. </p>
<p>Bununla birlikte, sahtekârı tespit etmenin yolları vardır. Kullandıkları GenAI’nin ne kadar gelişmiş olduğuna bağlı olarak, aşağıdakileri ayırt etmek mümkün olabilir:</p>
<ul>
<li>Konuşmacının konuşmasında doğal olmayan bir ritim</li>
<li>Konuşmacının sesinde doğal olmayan düz bir duygusal ton</li>
<li>Doğal olmayan nefes alma veya hatta nefessiz cümleler</li>
<li>Olağan dışı robotik ses (daha az gelişmiş araçlar kullandıklarında)</li>
<li>Garip bir şekilde yok olan veya çok tekdüze olan arka plan gürültüsü </li>
</ul>
<p><strong>Karşı koyma zamanı</strong></p>
<p>Tehdit aktörlerinin bu tür dolandırıcılıklara daha fazla zaman ayırmalarının nedeni potansiyel kazançlardır.  En kötü senaryonun gerçekleşme olasılığını en aza indirmek için atabileceğiniz bazı önemli adımları yeniden gözden geçirmek faydalı olacaktır. İlk adım, çalışanların eğitimi ve bilinçlendirilmesidir. Bu programlar, çalışanların ne beklemeleri gerektiğini, nelerin risk altında olduğunu ve nasıl davranmaları gerektiğini bilmelerini sağlamak için deepfake ses simülasyonlarını içerecek şekilde güncellenmelidir. Çalışanlara, sosyal mühendisliğin belirgin işaretlerini ve yukarıda açıklananlar gibi tipik deepfake senaryolarını tespit etmeleri öğretilmelidir. </p>
<ul>
<li>Telefonla yapılan tüm taleplerin bant dışı doğrulanması – yani, kurumsal mesajlaşma hesaplarını kullanarak göndereni bağımsız olarak kontrol etmek,</li>
<li>Büyük finansal transferleri veya tedarikçinin banka bilgilerindeki değişiklikleri iki kişinin imzalaması,</li>
<li>Yöneticilerin, telefonda kim olduklarını kanıtlamak için cevaplamaları gereken önceden kararlaştırılmış şifreler veya sorular.</li>
</ul>
<p>Teknoloji de yardımcı olabilir. Sentetik sesin varlığını kontrol etmek için çeşitli parametreleri kontrol eden algılama araçları mevcuttur. Uygulaması daha zor olsa da başka bir önlem de yöneticilerin kamuya açık görünümlerini sınırlayarak tehdit aktörlerinin ses kaydına ulaşma fırsatlarını kısıtlamaktır.</p>
<p><strong>İnsanlar, süreçler ve teknoloji</strong></p>
<p>Deepfake’lerin üretimi basit ve maliyeti düşüktür. Dolandırıcıların elde edebileceği potansiyel olarak büyük meblağlar göz önüne alındığında sesli klonlama dolandırıcılıklarının yakın zamanda sona ereceğini düşünmek olası değil. Bu nedenle, insan, süreç ve teknolojiye dayalı üç yönlü bir yaklaşım, kuruluşunuzun riski azaltmak için sahip olduğu en iyi seçenektir.</p>
<p> </p>
<p> </p></p>
<p><a href="https://www.engazete.com.tr/her-duydugunuza-inanmayin-616876">Her duyduğunuza inanmayın</a> yazısı ilk önce <a href="https://www.engazete.com.tr">En Gazete</a> üzerinde ortaya çıktı.</p>
]]></content:encoded>
					
		
		
			</item>
		<item>
		<title>Yapay zeka mı, gerçek mi?</title>
		<link>https://www.engazete.com.tr/yapay-zeka-mi-gercek-mi-587539</link>
		
		<dc:creator><![CDATA[Cenk Şefik]]></dc:creator>
		<pubDate>Wed, 29 Oct 2025 09:26:04 +0000</pubDate>
				<category><![CDATA[TEKNOLOJİ]]></category>
		<category><![CDATA[benli]]></category>
		<category><![CDATA[deepfake]]></category>
		<category><![CDATA[doğa]]></category>
		<category><![CDATA[gerçek]]></category>
		<category><![CDATA[görüntü]]></category>
		<category><![CDATA[göz]]></category>
		<category><![CDATA[ifade]]></category>
		<category><![CDATA[Sahte İçerik]]></category>
		<category><![CDATA[ses]]></category>
		<category><![CDATA[teknoloji]]></category>
		<category><![CDATA[video]]></category>
		<category><![CDATA[yapay]]></category>
		<category><![CDATA[zeka]]></category>
		<guid isPermaLink="false">https://www.engazete.com.tr/?p=587539</guid>

					<description><![CDATA[<p>Üsküdar Üniversitesi Mühendislik ve Doğa Bilimleri Fakültesi, Yazılım Mühendisliği (İngilizce) Bölümü Dr. Öğr. Üyesi Kristin Surpuhi Benli, yapay zekâ destekli ses ve görüntü üretim teknolojileri konusunu değerlendirdi.</p>
<p><a href="https://www.engazete.com.tr/yapay-zeka-mi-gercek-mi-587539">Yapay zeka mı, gerçek mi?</a> yazısı ilk önce <a href="https://www.engazete.com.tr">En Gazete</a> üzerinde ortaya çıktı.</p>
]]></description>
										<content:encoded><![CDATA[<p>Üsküdar Üniversitesi Mühendislik ve Doğa Bilimleri Fakültesi, Yazılım Mühendisliği (İngilizce) Bölümü Dr. Öğr. Üyesi Kristin Surpuhi Benli, yapay zekâ destekli ses ve görüntü üretim teknolojileri konusunu değerlendirdi.</p>
<p><strong>&#8220;Deepfake&#8221; teknolojisi nedir?</strong></p>
<p>Yapay zekâ destekli ses ve görüntü üretiminin, genel olarak &#8220;deepfake&#8221; teknolojisi olarak adlandırıldığını ifade eden Dr. Öğr. Üyesi Kristin Surpuhi Benli, “Kelime oluşumu itibariyle Deepfake, ‘deep learning’ (derin öğrenme) ve ‘fake’ (sahte) kelimelerinin birleşmesinden meydana gelmektedir. Bu teknoloji, yüz tanıma, ses analizi ve görüntü işleme gibi alanlarda geliştirilen derin öğrenme algoritmalarını kullanarak, gerçeğe son derece yakın sahte video, ses veya görüntüler üretir.” dedi.</p>
<p><strong>Kötü niyetli kişiler tarafından kullanılabiliyor</strong></p>
<p>Deepfake teknlojisini kullanılarak bir kişinin yüzü, mimikleri veya sesinin taklit edilebildiğini kaydeden Dr. Öğr. Üyesi Kristin Surpuhi Benli, “Bu sayede gerçekte yaşanmamış bir konuşma veya olay sanki gerçekleşmiş gibi sunulabilir. Bu teknoloji, yaratıcı içerikler üretmek için kullanılabileceği gibi, kötü niyetli kişiler tarafından dezenformasyon yaymak veya dolandırıcılık yapmak amacıyla da kullanılabilir.” diye konuştu.  </p>
<p><strong>Sahte haber üretimi yapılabiliyor</strong></p>
<p>Yapay zekâ ile üretilen video ve ses içeriklerinin günümüzde sinema, eğitim, reklam, oyun ve medya gibi pek çok alanda yaygın olarak kullanıldığını dile getiren Dr. Öğr. Üyesi Kristin Surpuhi Benli, “Reklamlar, uzaktan eğitim videoları, dijital oyunlardaki karakterler, sanal haber sunucuları ve farklı dillere çevrilen içerikler bu teknoloji sayesinde hızlı ve düşük maliyetle hazırlanmaktadır. Öte yandan, aynı teknolojiler sahte haber üretimi, dolandırıcılık ve bilgi kirliliği yaratmak gibi amaçlarla da kötüye kullanılabilmektedir.” ifadesinde bulundu.</p>
<p><strong>Deepfake videoların bu denli ikna edici olmasının temelinde ne var?</strong></p>
<p>Deepfake videoların bu denli ikna edici olmasının temelinde, yapay zeka teknolojilerinin, özellikle de derin öğrenme modellerinin, görüntü ve ses üretiminde sunduğu artan gerçekçilik ve ayrıntı düzeyinin yattığını anlatan Dr. Öğr. Üyesi Kristin Surpuhi Benli, “Yüz ifadeleri, göz kırpma, ışıklandırma ve ten dokusu gibi detaylar artık çok daha doğal biçimde taklit edilebiliyor. Ses klonlama teknolojileri ise konuşma ritmi ve tonlamayı başarıyla kopyalayabiliyor. Görüntü ve ses kalitesindeki bu ilerleme, sahte içerikleri her geçen gün daha inandırıcı kılıyor ve bu da onların insan gözüyle ya da kulağıyla fark edilmesini giderek zorlaştırıyor.” şeklinde konuştu.</p>
<p><strong>Dijital çağda “gerçeklik” kavramı köklü bir dönüşüm geçiriyor</strong></p>
<p>Yapay zeka, deepfake ve benzeri teknolojilerle birlikte dijital çağda “gerçeklik” kavramının köklü bir dönüşüm geçirdiğini söyleyen Dr. Öğr. Üyesi Kristin Surpuhi Benli, “Artık gördüğümüz, duyduğumuz, hatta okuduğumuz içeriklerin gerçekten olup olmadığını sorgulamamız gerekiyor. Bu durum, bilgiye erişimde daha fazla şüpheciliği beraberinde getirirken, doğruluğu ve güvenilirliği teyit edebilecek yeni yöntemlere ve etik standartlara olan ihtiyacı da artırıyor.” dedi.</p>
<p><strong>Deepfake videolarda ayırt edici unsurlar neler?</strong></p>
<p>Bir görüntünün veya sesin yapay zekâ ürünü olup olmadığını tespit etmeye yönelik teknik ve yöntemlerin giderek geliştiğini kaydeden Dr. Öğr. Üyesi Kristin Surpuhi Benli, şöyle devam etti:</p>
<p>“Bu tespit süreçleri; görüntü işleme, ses analizi ve makine öğrenimi tekniklerine dayanmaktadır. Görsellerde yüz ifadeleri ve mimikler analiz edilerek sahte içerik belirlenmeye çalışılır. Deepfake videolarda dikkat edilebilecek bazı ayırt edici unsurlar şunlardır; göz kırpmanın doğal olmaması, ağız hareketleri ile ses arasında senkronizasyon problemleri, ten rengi geçişlerindeki yapaylık, ışık yansımalarının doğallıktan uzak olması, saç ve kenar detaylarında görülen bozulmalar. Ses analizinde ise frekans spektrumu, vurgu, tonlama ve nefes alma gibi ayrıntılar incelenir. Bunun yanı sıra, özel olarak eğitilmiş derin öğrenme modelleri de sahte içeriklerin tespitinde etkin bir şekilde kullanılmaktadır.”</p>
<p><strong>İleri düzey deepfake teknolojileri; mimiklerden göz hareketlerine kadar başarılı</strong></p>
<p>Günümüzde yapay zekâ ile üretilen görüntü ve seslerin, çoğu zaman insan gözü ve kulağının ayırt edemeyeceği kadar gerçekçi hale geldiğini de anlatan Dr. Öğr. Üyesi Kristin Surpuhi Benli, “Her ne kadar dikkatli bir incelemeyle hala bazı yapaylıklar sezilebilse de örneğin yüz ifadelerinin doğallıktan uzak olması, göz hareketlerindeki tutarsızlık ya da sesin mekanik tınısı gibi, bu farklar giderek daha az belirgin hale gelmektedir. Özellikle ileri düzey deepfake teknolojileri; mimiklerden göz hareketlerine, ses tonundan nefes alma düzenine kadar birçok ayrıntıyı yüksek başarıyla taklit edebilmektedir. Bu nedenle kısa süreli ya da düşük çözünürlüklü sahte içerikler, çoğu zaman gerçekmiş gibi algılanabilmektedir.” dedi.</p>
<p><strong>Videonun paylaşıldığı hesabın güvenilirliği değerlendirilmeli</strong></p>
<p>Sosyal medyada paylaşılan bir videonun doğruluğunu sorgulamak için bireylerin öncelikle içeriğin kaynağını araştırması gerektiğini belirten Dr. Öğr. Üyesi Kristin Surpuhi Benli, sözlerini şöyle tamamladı:</p>
<p>“Videonun paylaşıldığı hesabın güvenilirliği değerlendirilmeli, içeriğin resmi ya da tanınmış platformlardan yayımlanıp yayımlanmadığı kontrol edilmelidir. Aynı olaya dair farklı kaynaklardan gelen videolar veya haberlerle karşılaştırma yapmak, içeriğin doğruluğunu teyit etmek açısından etkili bir yöntemdir. Ayrıca videodaki ses ve görüntü arasındaki tutarsızlıklar dikkatle analiz edilmelidir. Tüm bunlara ek olarak, yapay zekâ destekli tespit araçları da sahte içeriklerin belirlenmesinde önemli bir destek sunar.”</p>
<p> </p></p>
<p><a href="https://www.engazete.com.tr/yapay-zeka-mi-gercek-mi-587539">Yapay zeka mı, gerçek mi?</a> yazısı ilk önce <a href="https://www.engazete.com.tr">En Gazete</a> üzerinde ortaya çıktı.</p>
]]></content:encoded>
					
		
		
			</item>
		<item>
		<title>Kaspersky: Deepfake hizmetleri artık 400 kat daha ucuz</title>
		<link>https://www.engazete.com.tr/kaspersky-deepfake-hizmetleri-artik-400-kat-daha-ucuz-578450</link>
		
		<dc:creator><![CDATA[Cenk Şefik]]></dc:creator>
		<pubDate>Tue, 23 Sep 2025 14:20:57 +0000</pubDate>
				<category><![CDATA[TEKNOLOJİ]]></category>
		<category><![CDATA[artık]]></category>
		<category><![CDATA[deepfake]]></category>
		<category><![CDATA[hizmetleri]]></category>
		<category><![CDATA[kaspersky]]></category>
		<category><![CDATA[kat]]></category>
		<category><![CDATA[sahte]]></category>
		<category><![CDATA[tehdit]]></category>
		<category><![CDATA[ucuz]]></category>
		<category><![CDATA[video]]></category>
		<guid isPermaLink="false">https://www.engazete.com.tr/?p=578450</guid>

					<description><![CDATA[<p>Kaspersky Küresel Araştırma ve Analiz Ekibi (GReAT), darknet'te gerçek zamanlı video ve ses üzerine deepfake hizmetleri sunan grupların reklamlarını ortaya çıkardı. Sahte videoların fiyatları 50 dolardan, sahte sesli mesajların fiyatları ise 30 dolardan başlıyor.</p>
<p><a href="https://www.engazete.com.tr/kaspersky-deepfake-hizmetleri-artik-400-kat-daha-ucuz-578450">Kaspersky: Deepfake hizmetleri artık 400 kat daha ucuz</a> yazısı ilk önce <a href="https://www.engazete.com.tr">En Gazete</a> üzerinde ortaya çıktı.</p>
]]></description>
										<content:encoded><![CDATA[<p><strong>Kaspersky Küresel Araştırma ve Analiz Ekibi (GReAT), darknet&#8217;te gerçek zamanlı video ve ses üzerine deepfake hizmetleri sunan grupların reklamlarını ortaya çıkardı. Sahte videoların fiyatları 50 dolardan, sahte sesli mesajların fiyatları ise 30 dolardan başlıyor. İçeriklerin karmaşıklığı ve süresine göre maliyetler artıyor. Bu bulgular, Rusça ve İngilizce dillerinde yayın yapan birçok platformun analiz edilmesinin ardından ortaya çıktı.</strong></p>
<p>Kaspersky, daha önce darknet platformlarında dakikası 300 ila 20 bin dolar arasında değişen deepfake hazırlama hizmetleri tespit etmişti. Önceki hizmetlerin aksine, mevcut hizmetler tehdit aktörlerinin çok daha düşük bir fiyata gerçek zamanlı olarak sahte ses ve video içeriği oluşturmasına olanak tanıyor. Reklamlarda, video konferans platformlarında veya mesajlaşma uygulamalarında video görüşmeleri sırasında gerçek zamanlı yüz değiştirme, doğrulama için yüz değiştirme ve cihazlarda kamera görüntüsü değiştirme gibi çeşitli seçenekler sunuluyor.</p>
<p>İlgili gönderilerin yazarları, bir kişinin videodaki yüz ifadelerini yabancı dillerde bile metinle senkronize eden yazılımlar ve belirli duyguları aktarmak için ses klonlama ve ton ve tını ayarlama araçları sağlayabileceklerini iddia ediyorlar. Ancak bu reklamların çoğunun ilgilenen alıcıları dolandırmak amacıyla yapılan sahtekarlıklar olması oldukça muhtemel.</p>
<p><strong>Rusya ve BDT&#8217;deki Kaspersky Global Araştırma ve Analiz Ekibi başkanı Dmitry Galov</strong>, şunları söylüyor: <em>&#8220;Sadece &#8216;deepfake-as-a-service&#8217; hizmeti sunan reklamlar görmekle kalmıyoruz. Aynı zamanda bu araçlara yönelik açık bir talep de var. Kötü niyetli saldırganlar, yapay zekayı aktif olarak kullanıyor ve operasyonlarına dahil ediyor. Bazı platformlar daha sofistike özelliklere sahip, örneğin kamuya açık modellerden bağımsız olarak tamamen sıfırdan oluşturulan ve yerel olarak çalışan kötü niyetli LLM&#8217;ler gibi. Bu teknolojiler temelde yeni siber tehditler getirmiyor olsa da, saldırganların yeteneklerini önemli ölçüde geliştirebilir. Bu bağlamda siber güvenlik uzmanları bu tehditlere karşı koymak için çok çalışmalıdır. Bu zorluğun üstesinden gelmenin en umut verici yollarından biri, yapay zekayı kullanarak hem güvenlik uzmanlarının üretkenliğini hem de savunma önlemlerinin etkinliğini artırmaktır.&#8221;</em></p>
<p>Güvende kalmak için Kaspersky şunları öneriyor:</p>
<ul>
<li>Şirketinizin sadece koruyucu çözümlerle değil, aynı zamanda yetenekli BT uzmanları da içeren etkili siber güvenlik önlemleriyle donatın. Kaspersky Threat Intelligence kullanarak işinizi etkileyebilecek tehditleri belirleyin.</li>
<li>Çalışanların deepfake&#8217;leri ve bunların neden ciddi bir tehdit olduğunu anlamalarını sağlayın ve bunları nasıl tespit edecekleri konusunda düzenli eğitimler verin. Kaspersky Automated Security Awareness Platform, dijital okuryazarlığı artırmaya yardımcı olur.</li>
<li>Personele deepfake&#8217;lerin temel belirtilerini tanımayı öğretin. Sarsıntılı hareketler, kareler arasında tutarsız aydınlatma, doğal olmayan cilt tonları, olağandışı veya eksik göz kırpma, görüntü bozulmaları ve kasıtlı olarak düşük kalitede veya zayıf aydınlatmada çekilmiş videolar gibi belirtiler bu tarz sahteleri ele verebilir.</li>
</ul>
<p><a href="https://www.engazete.com.tr/kaspersky-deepfake-hizmetleri-artik-400-kat-daha-ucuz-578450">Kaspersky: Deepfake hizmetleri artık 400 kat daha ucuz</a> yazısı ilk önce <a href="https://www.engazete.com.tr">En Gazete</a> üzerinde ortaya çıktı.</p>
]]></content:encoded>
					
		
		
			</item>
		<item>
		<title>Satılık Deepfake: Kaspersky yapay zeka çağının güvenlik endişeleri konusunda uyardı</title>
		<link>https://www.engazete.com.tr/satilik-deepfake-kaspersky-yapay-zeka-caginin-guvenlik-endiseleri-konusunda-uyardi-448842</link>
		
		<dc:creator><![CDATA[Cenk Şefik]]></dc:creator>
		<pubDate>Thu, 04 Apr 2024 09:08:34 +0000</pubDate>
				<category><![CDATA[TEKNOLOJİ]]></category>
		<category><![CDATA[çağının]]></category>
		<category><![CDATA[deepfake]]></category>
		<category><![CDATA[endişeleri]]></category>
		<category><![CDATA[güvenlik]]></category>
		<category><![CDATA[kaspersky]]></category>
		<category><![CDATA[konusunda]]></category>
		<category><![CDATA[satılık]]></category>
		<category><![CDATA[uyardı]]></category>
		<category><![CDATA[yapay]]></category>
		<category><![CDATA[zeka]]></category>
		<guid isPermaLink="false">https://www.engazete.com.tr/?p=448842</guid>

					<description><![CDATA[<p>Son yıllarda yapay zeka (AI) ve makine öğrenimi teknolojilerinin yaygın olarak benimsenmesi, tehdit aktörlerine saldırılarını gerçekleştirebilecekleri sofistike yeni araçlar sağlıyor.</p>
<p><a href="https://www.engazete.com.tr/satilik-deepfake-kaspersky-yapay-zeka-caginin-guvenlik-endiseleri-konusunda-uyardi-448842">Satılık Deepfake: Kaspersky yapay zeka çağının güvenlik endişeleri konusunda uyardı</a> yazısı ilk önce <a href="https://www.engazete.com.tr">En Gazete</a> üzerinde ortaya çıktı.</p>
]]></description>
										<content:encoded><![CDATA[<p><strong><span>Son yıllarda yapay zeka (AI) ve makine öğrenimi teknolojilerinin yaygın olarak benimsenmesi, tehdit aktörlerine saldırılarını gerçekleştirebilecekleri sofistike yeni araçlar sağlıyor. </span></strong></p>
<p><strong><span>Bunlardan biri de insan benzeri doğal konuşma veya gerçek insanların fotoğraf ve video kopyalarını içeren deepfake’ler. Bu saldırıları oluşturmak için harcanan zaman ve çaba genellikle potansiyel &#8216;ödüllerinden&#8217; daha ağır bassa da Kaspersky, şirketlerin ve tüketicilerin deepfake&#8217;lerin gelecekte daha fazla endişe kaynağı olacağının farkında olmaları gerektiği konusunda uyarıyor.</span></strong></p>
<p><span>Kaspersky araştırması, darknet pazarlarında deepfake oluşturma araçlarının ve hizmetlerinin yer aldığını tespit etti. Bu hizmetler dolandırıcılık, şantaj ve gizli verilerin çalınması gibi çeşitli amaçlar için yapay zeka yardımıyla video oluşturma imkanı sunuyor. Kaspersky uzmanlarının tahminlerine göre, bir dakikalık deepfake video 300 dolar gibi düşük bir fiyata satın alınabiliyor.</span></p>
<p><span>İnternet kullanıcıları arasında dijital okuryazarlık konusunda önemli bir uçurum olduğu konusunda da endişeler var. Yakın zamanda yapılan Kaspersky İş Dijitalleşme Anketine¹ göre Orta Doğu, Türkiye ve Afrika (META) bölgesinde ankete katılan çalışanların %51&#8217;i bir deepfake&#8217;i gerçek bir görüntüden ayırt edebileceklerini söyledi. Yapılan testte ise yalnızca %25&#8217;i gerçek bir görüntüyü yapay zeka tarafından oluşturulmuş bir görüntüden ayırt edebildi2. Kimlik avı ve diğer sosyal mühendislik saldırılarının birincil hedeflerinin genellikle çalışanlar olduğu düşünüldüğünde, bu durum kurumların risk altında olması demek. </span></p>
<p><span>Örneğin, siber suçlular CEO&#8217;nun bir banka havalesi talep ettiği veya ödemeyi onayladığı sahte bir video oluşturabilir ve bu video şirket varlıklarını çalmak için kullanılabilir. Bireylerden para ya da bilgi sızdırmak için kullanılabilecek tehlikeye atıcı videolar ya da görüntüler oluşturulabilir.</span></p>
<p><span>Kaspersky Baş Veri Bilimcisi <strong>Vladislav Tushkanov</strong>, şunları söylüyor: <em>&#8220;Yüksek kaliteli deepfake yaratacak teknolojiler henüz yaygın olarak bulunmasa da, bu teknolojinin en olası kullanım alanlarından biri gerçek zamanlı sesler üreterek başka birinin kimliğine bürünmektir. Örneğin çok uluslu bir firmada çalışan bir finans görevlisi, deepfake teknolojisi sayesinde bir video konferans görüşmesinde şirketin finans müdürü gibi davranılarak dolandırıcılara </em></span><em><span>25 milyon dolar aktarmak üzere kandırıldı. Deepfake&#8217;lerin yalnızca işletmeler için değil, aynı zamanda bireysel kullanıcılar için de bir tehdit olduğunu unutmamak önemlidir. Yanlış bilgi yayarlar, dolandırıcılık amacıyla kullanılırlar veya rızası olmadan başka birinin kimliğine bürünürler. Bu korunulması gereken ve büyüyen bir siber tehdit.&#8221;</span></em></p>
<p><span>Kaspersky, deepfake&#8217;lerin oluşturduğu çeşitli tehditlere karşı korunmak için kişilere ve işletmelere aşağıdaki önlemleri öneriyor:</span></p>
<ul>
<li><span>Şüpheli aramalara dikkat edin. Düşük ses kalitesi, sesin doğal olmayan monotonluğu, anlaşılmaz konuşma şekilleri ve gelen anlamsız gürültülere dikkat edin.</span></li>
<li><span>Deepfake videoların temel özelliklerini öğrenin. Bu özellikler arasında sarsıntılı hareketler, bir plandan diğerine geçişte ışıkta kaymalar, cilt tonunda farklılıklar, konuşmayla senkronize olmayan dudak hareketleri ve zayıf aydınlatma yer alır.</span></li>
<li><span>Asla duygulara dayalı kararlar vermeyin ve ayrıntıları kimseyle paylaşmayın. Sadece o kişinin bilebileceği bir şey sormak ya da aramayı durdurmak, alınan bilgileri birkaç kanaldan ayrıca doğrulamak her zaman daha iyidir. Bu noktada &#8216;güven ama doğrula&#8217; protokolünü izleyin.</span></li>
<li><span>Kuruluşunuzun siber güvenlik uygulamalarını kontrol edin ve güncelleyin. </span></li>
<li><span>Kaspersky Threat Intelligence</span><span> gibi bir güvenlik çözümü, bilgi güvenliği uzmanlarının deepfake konusundaki en son gelişmeler hakkında güncel kalmasına yardımcı olabilir.</span></li>
<li><span>Şirketler ayrıca çalışanlarının deepfake&#8217;lerin ne olduğunu, nasıl çalıştıklarını ve oluşturabilecekleri zorlukları anlamalarını sağlayarak insana dayalı güvenlik duvarını güçlendirmelidir. Bu, çalışanlara deepfake saldırılarını nasıl tespit edeceklerini öğretmek üzere uygulanacak sürekli farkındalık ve eğitim çalışmalarını kapsar.</span></li>
</ul>
<p>Kaynak: (BYZHA) Beyaz Haber Ajansı</p>
<p><a href="https://www.engazete.com.tr/satilik-deepfake-kaspersky-yapay-zeka-caginin-guvenlik-endiseleri-konusunda-uyardi-448842">Satılık Deepfake: Kaspersky yapay zeka çağının güvenlik endişeleri konusunda uyardı</a> yazısı ilk önce <a href="https://www.engazete.com.tr">En Gazete</a> üzerinde ortaya çıktı.</p>
]]></content:encoded>
					
		
		
			</item>
		<item>
		<title>Geçmişten Günümüze: Sesli Deepfake Araçlarıyla Siber Dolandırıcılıkta Nasıl Kandırılıyoruz?</title>
		<link>https://www.engazete.com.tr/gecmisten-gunumuze-sesli-deepfake-araclariyla-siber-dolandiricilikta-nasil-kandiriliyoruz-421559</link>
		
		<dc:creator><![CDATA[Cenk Şefik]]></dc:creator>
		<pubDate>Tue, 14 Nov 2023 10:24:09 +0000</pubDate>
				<category><![CDATA[GÜNDEM]]></category>
		<category><![CDATA[araçlarıyla]]></category>
		<category><![CDATA[deepfake]]></category>
		<category><![CDATA[dolandırıcılıkta]]></category>
		<category><![CDATA[geçmişten]]></category>
		<category><![CDATA[günümüze]]></category>
		<category><![CDATA[kandırılıyoruz]]></category>
		<category><![CDATA[nasıl]]></category>
		<category><![CDATA[sesli]]></category>
		<category><![CDATA[siber]]></category>
		<guid isPermaLink="false">https://www.engazete.com.tr/?p=421559</guid>

					<description><![CDATA[<p>Beatles, geçenlerde yapay zeka (AI) sayesinde eski bir kaydın parçalarını birleştirerek ve aynı zamanda ses kalitesini geliştirerek yeni bir şarkı yayınladı ve dünyanın dört bir yanındaki milyonlarca hayranını bir kez daha sevindirdi.</p>
<p><a href="https://www.engazete.com.tr/gecmisten-gunumuze-sesli-deepfake-araclariyla-siber-dolandiricilikta-nasil-kandiriliyoruz-421559">Geçmişten Günümüze: Sesli Deepfake Araçlarıyla Siber Dolandırıcılıkta Nasıl Kandırılıyoruz?</a> yazısı ilk önce <a href="https://www.engazete.com.tr">En Gazete</a> üzerinde ortaya çıktı.</p>
]]></description>
										<content:encoded><![CDATA[<table>
<tbody>
<tr>
<td><strong>Geçmişten Günümüze: Sesli Deepfake Araçlarıyla Siber Dolandırıcılıkta Nasıl Kandırılıyoruz?</strong></p>
<p> </p>
<p>Beatles, geçenlerde yapay zeka (AI) sayesinde eski bir kaydın parçalarını birleştirerek ve aynı zamanda ses kalitesini geliştirerek yeni bir şarkı yayınladı ve dünyanın dört bir yanındaki milyonlarca hayranını bir kez daha sevindirdi. Ancak grubun yeni başyapıtından dolayı duyulan sevinci bir tarafa bırakırsak, yapay zekanın sahte sesler ve görüntüler yaratmak için kullanılmasının karanlık tarafları da var.</p>
<p>Neyse ki bu tür derin sahteler ve bunları yapmak için kullanılan araçlar şimdilik çok gelişmiş veya yaygın değil. Yine de dolandırıcılık alanında kullanılma potansiyelleri son derece yüksek ve teknoloji de yerinde durmuyor.</p>
<p><strong>Derin ses sahtekarlığıyla neler yapılabilir?</strong></p>
<p>Open AI kısa süre önce gerçekçi insan konuşması ve sesli giriş metni sentezleyebilen bir Audio API modeli sergiledi. Bu Open AI yazılımı, şimdilik gerçek insan konuşmasına en yakın olan şey.</p>
<p>Gelecekte bu tür modeller saldırganların elinde yeni bir araç haline gelebilir. Ses API&#8217;si belirtilen metni yeniden seslendirirken, kullanıcılar metnin önerilen ses seçeneklerinden hangisiyle telaffuz edileceğini seçebilir. Open AI modeli mevcut haliyle deepfake sesler yaratmak için kullanılamasa da, ortaya koyduğu nitelikler ses üretme teknolojilerinin hızla geliştiğinin bir göstergesi niteliğinde.</p>
<p>Günümüzde gerçek insan konuşmasından ayırt edilemeyen yüksek kaliteli derin sahte ses üretebilen neredeyse hiçbir cihaz mevcut değil. Ancak son birkaç ay içinde insan sesi üretmeye yönelik daha fazla araç piyasaya sürüldü. Önceleri bunları kullanabilmek için kullanıcıların temel programlama becerilerine ihtiyacı vardı, ancak gün geçtikçe bunları kullanmak çok daha kolay hale geliyor. Yakın gelecekte hem kullanım kolaylığını hem de kaliteli sonuçları bir araya getirecek modeller görmemiz pekala mümkün.</p>
<p>Yapay zeka kullanarak dolandırıcılık yapmak nadir görülen bir durum. Ancak halihazırda &#8220;başarılı&#8221; vaka örnekleri mevcut. Ekim 2023&#8217;ün ortalarında Amerikalı risk sermayedarı Tim Draper, Twitter takipçilerini dolandırıcıların sesini kullanabileceği konusunda uyardı. Tim, sesiyle yapılan para taleplerinin her geçen gün daha akıllı hale gelen yapay zekanın bir sonucu olduğunu paylaştı.</p>
<p><strong>Kendinizi bundan nasıl koruyabilirsiniz?</strong></p>
<p>Şimdiye dek toplumda ses taklitleri olası bir siber tehdit olarak algılanmamış olabilir. Kötü niyetle kullanıldıkları çok az vaka var. Bu nedenle korunmaya yönelik teknolojilerinin ortaya çıkışı da yavaş seyrediyor.</p>
<p>Şimdilik bu durumdan kendinizi korumanın en iyi yolu, arayan kişinin telefonda size söylediklerini dikkatle dinlemekten geçiyor. Eğer kayıt kalitesizse, arada gürültüler varsa ve ses robotik geliyorsa, bu duyduğunuz bilgilere güvenmemeniz için yeterli sebep.</p>
<p>Karşınızdakinin &#8220;insanlığını&#8221; test etmenin bir başka iyi yolu da alışılmışın dışında sorular sormak. Örneğin sizi arayan bir ses modeliyse, en sevdiği renkle ilgili soracağınız bir soru genellikle karşılaşmayı beklediği türden bir şey olmadığı için onu şaşkına çevirebilir. Saldırgan bu noktada manuel olarak çevirip cevabı oynatsa bile, yanıttaki zaman gecikme kandırıldığınızı açıkça ortaya koyar.</p>
<p>Bir diğer güvenli seçenek de güvenilir ve kapsamlı bir güvenlik çözümü kullanmak. Bunlar deepfake sesleri yüzde 100 tespit edemeseler de, tarayıcıları koruyarak ve bilgisayardaki tüm dosyaları kontrol ederek kullanıcıların şüpheli web sitelerinden, ödemelerden ve kötü amaçlı yazılım indirmelerinden kaçınmalarına yardımcı olabilirler.</p>
<p>Kaspersky Kıdemli Veri Bilimcisi <strong>Dmitry Anikin</strong>, şunları söylüyor: <em>&#8220;Şu an genel tavsiyemiz, tehdidi abartmamak ya da var olmadıkları yerde ses taklitlerini tanımaya çalışmamak yönündedir. Şimdilik mevcut teknolojinin insanların ayırt edemeyeceği kalitede bir ses yaratacak kadar güçlü olması pek olası değil. Yine de olası tehditlerin farkında olmanız ve yakın gelecekte yeni bir gerçeklik haline gelecek olan gelişmiş deepfake dolandırıcılığına hazırlıklı olmanız gerekiyor.&#8221;</em></p>
</td>
</tr>
</tbody>
</table>
<p>Kaynak: (BYZHA) Beyaz Haber Ajansı</p>
<p><a href="https://www.engazete.com.tr/gecmisten-gunumuze-sesli-deepfake-araclariyla-siber-dolandiricilikta-nasil-kandiriliyoruz-421559">Geçmişten Günümüze: Sesli Deepfake Araçlarıyla Siber Dolandırıcılıkta Nasıl Kandırılıyoruz?</a> yazısı ilk önce <a href="https://www.engazete.com.tr">En Gazete</a> üzerinde ortaya çıktı.</p>
]]></content:encoded>
					
		
		
			</item>
		<item>
		<title>Talepte artış var: Darkweb&#8217;de deepfake oluşturma fiyatları dakika başına 20 bin dolara ulaştı</title>
		<link>https://www.engazete.com.tr/talepte-artis-var-darkwebde-deepfake-olusturma-fiyatlari-dakika-basina-20-bin-dolara-ulasti-373506</link>
		
		<dc:creator><![CDATA[Cenk Şefik]]></dc:creator>
		<pubDate>Tue, 09 May 2023 09:16:15 +0000</pubDate>
				<category><![CDATA[TEKNOLOJİ]]></category>
		<category><![CDATA[artış]]></category>
		<category><![CDATA[başına]]></category>
		<category><![CDATA[bin]]></category>
		<category><![CDATA[dakika]]></category>
		<category><![CDATA[darkwebde]]></category>
		<category><![CDATA[deepfake]]></category>
		<category><![CDATA[dolara]]></category>
		<category><![CDATA[fiyatları]]></category>
		<category><![CDATA[oluşturma]]></category>
		<category><![CDATA[talepte]]></category>
		<category><![CDATA[ulaştı]]></category>
		<category><![CDATA[var]]></category>
		<guid isPermaLink="false">https://www.engazete.com.tr/?p=373506</guid>

					<description><![CDATA[<p>Deepfake oluşturma araçları ve hizmetleri darknet pazarlarında yer alıyor. Bu hizmetler dolandırıcılık, şantaj ve gizli verilerin çalınması gibi çeşitli amaçlar için yapay zeka destekli video oluşturma hizmeti sunuyor.</p>
<p><a href="https://www.engazete.com.tr/talepte-artis-var-darkwebde-deepfake-olusturma-fiyatlari-dakika-basina-20-bin-dolara-ulasti-373506">Talepte artış var: Darkweb&#8217;de deepfake oluşturma fiyatları dakika başına 20 bin dolara ulaştı</a> yazısı ilk önce <a href="https://www.engazete.com.tr">En Gazete</a> üzerinde ortaya çıktı.</p>
]]></description>
										<content:encoded><![CDATA[<p>Deepfake oluşturma araçları ve hizmetleri darknet pazarlarında yer alıyor. Bu hizmetler dolandırıcılık, şantaj ve gizli verilerin çalınması gibi çeşitli amaçlar için yapay zeka destekli video oluşturma hizmeti sunuyor. Deepfake oluşturma veya satın alma fiyatları, projenin karmaşıklığına ve nihai ürünün kalitesine bağlı olarak değişebiliyor. Kaspersky uzmanlarının tahminlerine göre bir dakikalık deepfake video başına fiyatlar 300 ila 20 bin dolar arasında değişebiliyor. Bu durum Kaspersky Cyber Security Weekend &#8211; META 2023 etkinliğinde paylaşıldı.</p>
<p>Kaspersky, farklı kötü niyetli amaçlar için deepfake video ve ses oluşturma hizmeti veren çeşitli Darknet pazarlarını ve yeraltı forumlarını analiz etti. Bazı durumlarda bireyler, deepfake oluşturmak için ünlüler veya siyasi figürler gibi belirli hedefler talep edebiliyor.</p>
<p>Siber suçlular, üretilen yapay zeka videolarını yasa dışı faaliyetler için çeşitli şekillerde kullanıyor. Bireyleri veya kuruluşları dolandırmak için kullanılabilecek sahte videolar veya görüntüler oluşturmak için deepfake örnekleri kullanabiliyor. Örneğin bir CEO&#8217;nun banka havalesi talep ettiği veya bir ödemeyi yetkilendirdiği sahte bir video hazırlanabiliyor ve bu video kurumsal fonları çalmak için kullanabiliyor. Sahte videolar, kişilerden para ya da bilgi sızdırmak için kullanılabilecek videolar ya da görüntüler oluşturmak için de kullanılabiliyor. Siber suçlular ayrıca yanlış bilgi yaymak veya kamuoyunu manipüle etmek için deepfake&#8217;lerden faydalanabiliyor. Örneğin bir politikacının tartışmalı açıklamalar yaptığı sahte bir video oluşturabiliyor ve bunu seçimin sonuçlarını etkilemek için kullanabiliyor.</p>
<p>Deepfake teknolojisi, meşru hesap sahibinin gerçekçi sahte videolarını veya ses kayıtlarını oluşturarak ödeme hizmetlerinde doğrulama aşamasını atlamak için kullanılabiliyor. Bunlar, ödeme hizmeti sağlayıcılarını gerçek hesap sahibiyle karşı karşıya olduklarını düşünmeleri için kandırmak ve böylece hesaba ve ilgili fonlara erişim elde etmek için kullanılabiliyor.</p>
<p>Kaspersky Lider Veri Bilimcisi <strong>Vladislav Tushkanov</strong>, şunları söyledi: <em>&#8220;Deepfake&#8217;ler giderek artan bir şekilde şantaj ve dolandırıcılık amacıyla kullanılıyor. Örneğin, bir İngiliz enerji firmasının CEO&#8217;su, ana şirketinin başkanının acil fon transferi talep eden bir ses deepfake&#8217;i ile 243.000 dolar dolandırıldı. Neticede fonlar dolandırıcının banka hesabına aktarıldı. Durum ancak suçlu başka bir transfer talebinde bulununca ortaya çıktı, ancak o zamana kadar zaten transfer edilmiş olan fonları geri almak için çok geç kalınmıştı. Benzer bir vaka BAE&#8217;de rapor edildi ve burada da ses deepfake&#8217;i içeren bir dolandırıcılıkta 400 bin dolar çalındı. Bununla birlikte deepfake&#8217;lerin yalnızca işletmeler için değil, aynı zamanda bireysel kullanıcılar için de bir tehdit olduğunu unutmamak gerekir. Bunlar yanlış bilginin yayılmasına sebep olabilir, dolandırıcılık için kullanılabilir veya rızası olmadan başka birinin kimliğine bürünebilir. Dijital okuryazarlık seviyenizi artırmak, bu tehditlere karşı koymak için anahtar niteliğindedir.&#8221;</em></p>
<p>Darkweb kaynaklarının sürekli izlenmesi, deepfake endüstrisi hakkında değerli bilgiler sağlayarak araştırmacıların bu alandaki tehdit aktörlerinin en son eğilimlerini ve faaliyetlerini takip etmelerine olanak tanıyor. Araştırmacılar darknet&#8217;i izleyerek deepfake&#8217;lerin oluşturulması ve dağıtımı için kullanılan yeni araçları, hizmetleri ve pazar yerlerini ortaya çıkarabiliyor. Bu tür bir izleme, deepfake araştırmasının kritik bir bileşenini oluşturuyor ve gelişen tehdit ortamına ilişkin anlayışımızı geliştirmemize yardımcı oluyor. Kaspersky Dijital Ayak İzi İstihbaratı hizmeti, müşterilerinin deepfake ile ilgili tehditler söz konusu olduğunda bir adım önde olmalarına yardımcı olmak için bu tür bir izleme içeriyor.</p>
<p>Kaspersky, deepfake ile ilgili tehditlerden korunmak için şunları öneriyor:</p>
<ul>
<li>Kuruluşunuzdaki siber güvenlik uygulamalarını kontrol edin. Yalnızca yazılımları değil, aynı zamanda gelişmiş BT becerilerini de ele alın. Mevcut tehdit ortamının önüne geçmek için Kaspersky Threat Intelligence kullanın.</li>
<li>Kurumsal &#8220;insan güvenlik duvarınızı&#8221; güçlendirin. Çalışanların deepfake&#8217;lerin ne olduğunu, nasıl çalıştıklarını ve yol açabilecekleri problemleri anlamalarını sağlayın. Çalışanlara bir deepfake&#8217;i nasıl tespit edeceklerini öğretmek için sürekli farkındalık ve eğitim çalışmaları yapın. Kaspersky Automated Security Awareness Platform, çalışanların en yeni tehditler konusunda güncel kalmasına yardımcı olur ve dijital okuryazarlık seviyelerini artırır.</li>
<li>Nitelikli haber kaynaklarına başvurun. Bilgi cehaleti, derin sahtekarlıkların yaygınlaşmasını sağlayan önemli bir etken olmaya devam ediyor.</li>
<li>&#8216;Güven ama doğrula&#8217; gibi iyi protokollere sahip olun. Sesli mesaj ve videolara şüpheyle yaklaşmak insanların asla kandırılmayacağını garanti etmez, ancak yaygın tuzakların çoğundan kaçınmaya yardımcı olabilir.</li>
<li>Deepfake videoların dikkat edilmesi gereken temel özelliklerinin farkında olun. Sarsıntılı hareket, bir kareden diğerine ışık kaymaları, cilt tonunda kaymalar, garip şekilde göz kırpma veya hiç göz kırpmama, dudakların konuşmayla senkronize olmaması, görüntüdeki dijital kalıntılar, videonun kasıtlı olarak düşük kalitede kodlanmış ve zayıf aydınlatmaya sahip oluşu sahteciliği ele vermeye yardımcı olan ipuçlarıdır.</li>
</ul>
<p> </p>
<p>Kaynak: (BYZHA) Beyaz Haber Ajansı</p>
<p><a href="https://www.engazete.com.tr/talepte-artis-var-darkwebde-deepfake-olusturma-fiyatlari-dakika-basina-20-bin-dolara-ulasti-373506">Talepte artış var: Darkweb&#8217;de deepfake oluşturma fiyatları dakika başına 20 bin dolara ulaştı</a> yazısı ilk önce <a href="https://www.engazete.com.tr">En Gazete</a> üzerinde ortaya çıktı.</p>
]]></content:encoded>
					
		
		
			</item>
	</channel>
</rss>
