<?xml version="1.0" encoding="UTF-8"?><rss version="2.0"
	xmlns:content="http://purl.org/rss/1.0/modules/content/"
	xmlns:wfw="http://wellformedweb.org/CommentAPI/"
	xmlns:dc="http://purl.org/dc/elements/1.1/"
	xmlns:atom="http://www.w3.org/2005/Atom"
	xmlns:sy="http://purl.org/rss/1.0/modules/syndication/"
	xmlns:slash="http://purl.org/rss/1.0/modules/slash/"
	xmlns:georss="http://www.georss.org/georss" xmlns:geo="http://www.w3.org/2003/01/geo/wgs84_pos#" xmlns:ymaps="http://api.maps.yahoo.com/Maps/V2/AnnotatedMaps.xsd" >

<channel>
	<title>magzine &#187; deepfake</title>
	<atom:link href="http://www.magzine.it/tag/deepfake/feed/" rel="self" type="application/rss+xml" />
	<link>http://www.magzine.it</link>
	<description>un progetto della Scuola di giornalismo dell&#039;Università Cattolica del Sacro Cuore di Milano</description>
	<lastBuildDate>Fri, 17 Apr 2026 23:44:26 +0000</lastBuildDate>
	<language>it-IT</language>
		<sy:updatePeriod>hourly</sy:updatePeriod>
		<sy:updateFrequency>1</sy:updateFrequency>
	<generator>https://wordpress.org/?v=4.0.35</generator>
	<item>
		<title>INTELLIGENZA ARTIFICIALE (DE)GENERATIVA: DAL DEEPFAKE AL DEEPNUDE</title>
		<link>http://www.magzine.it/intelligenza-artificiale-degenerativa-dal-deepfake-al-deepnude/</link>
		<comments>http://www.magzine.it/intelligenza-artificiale-degenerativa-dal-deepfake-al-deepnude/#comments</comments>
		<pubDate>Sun, 08 Dec 2024 18:23:58 +0000</pubDate>
		<dc:creator><![CDATA[Luciano Simbolo]]></dc:creator>
				<category><![CDATA[News Lab]]></category>
		<category><![CDATA[deepfake]]></category>
		<category><![CDATA[deepnude]]></category>
		<category><![CDATA[Fake news]]></category>
		<category><![CDATA[permessonegato]]></category>
		<category><![CDATA[revenge porn]]></category>

		<guid isPermaLink="false">http://www.magzine.it/?p=75953</guid>
		<description><![CDATA[Non è bastato l’AI Act a risolvere tutti i problemi derivanti da un uso improprio dell’intelligenza artificiale. Anzi, a quasi un anno dall’approvazione del regolamento dell’Unione europea sull’AI, il numero ...]]></description>
				<content:encoded><![CDATA[<p><img width="2980" height="1216" src="http://www.magzine.it/wp-content/uploads/2024/12/deepfake_newslab_esempio.png" class="attachment-post-thumbnail wp-post-image" alt="Uno degli esempi più classici di Deepfake in rete: Jim Carrey &quot;sostituisce&quot; Jack Nicholson in &quot;Shining&quot;. Fonte: https://youtu.be/AeRofGJ17Sk?si=g_voqrz_U927wavp" /></p><p><span style="font-weight: 400;">Non è bastato l’<strong>AI Act</strong> a risolvere tutti i problemi derivanti da un uso improprio dell’<strong>intelligenza artificiale</strong>. Anzi, a quasi un anno dall’approvazione del </span><a href="https://eur-lex.europa.eu/legal-content/IT/TXT/HTML/?uri=OJ:L_202401689"><span style="font-weight: 400;">regolamento dell’Unione europea sull’AI</span></a><span style="font-weight: 400;">, il numero di casi di violazione della privacy e creazione di deepfake è addirittura aumentato. A tal punto che parlare del 2024 anche come anno del <strong>deepfake</strong> non sarebbe un’eresia. Dalla voce di </span><a href="https://factcheck.afp.com/doc.afp.com.34EF34Q?s=09"><span style="font-weight: 400;">Taylor Swift clonata</span></a><span style="font-weight: 400;"> per </span><span style="font-weight: 400;">promuovere una inesistente campagna di giveaway di set di pentole, al ben più agghiacciante caso dei chatbot in grado di impersonificare Giulia Cecchettin e Filippo Turetta sotto forma di avatar con cui poter interagire. Gli esempi, purtroppo, sarebbero tanti… </span></p>
<p><span style="font-weight: 400;"><mark class='mark mark-yellow'> Oggi, grazie ad app e programmi che sfruttano l’intelligenza artificiale, chiunque è in grado di creare immagini manipolate così verosimili da trarre in inganno centinaia, migliaia, persino milioni di persone che ogni giorno vi si imbattono sui social. </mark><br />
I principali approcci utilizzati dai creatori di deepfake sono tre: </span></p>
<ol>
<li><span style="font-weight: 400;">     </span><b>Audio deepfakes</b><span style="font-weight: 400;">: la voce di una persona viene clonata ed utilizzata per creare nuovi dialoghi</span></li>
<li><span style="font-weight: 400;">     </span><b>Lip syncing</b><span style="font-weight: 400;">: una registrazione vocale viene sincronizzata con i movimenti delle labbra di un video</span></li>
<li><span style="font-weight: 400;">     </span><a href="https://www.youtube.com/watch?time_continue=12&amp;v=oxXpB9pSETo&amp;embeds_referring_euri=https%3A%2F%2Fwww.roberto-serra.com%2F&amp;source_ve_path=Mjg2NjQsMjg2NjY"><span style="font-weight: 400;">Source video deepfakes</span></a><span style="font-weight: 400;">: ad un video originale vengono sovrapposte le caratteristiche del volto e del corpo di un’altra persona</span></li>
</ol>
<p><span style="font-weight: 400;"> «</span><i><span style="font-weight: 400;">Deepfake</span></i><span style="font-weight: 400;"> è già una parola di per sé con connotazione negativa. Alla lettera, significa “falso profondo”, cioè una falsificazione indistinguibile dal reale», spiega a </span><i><span style="font-weight: 400;">Magzine </span></i><span style="font-weight: 400;"><strong>Alessandro Curioni</strong>, esperto di cybersicurezza e docente di “Sicurezza dell’informazione” all’Università Cattolica del Sacro Cuore.</span><span style="font-weight: 400;"> «</span><span style="font-weight: 400;">Di solito – prosegue l’esperto – si utilizza un “campione” di una persona, fatto di immagini, video e messaggi vocali e, dalla combinazione tra l’intelligenza artificiale e più o meno sofisticati programmi di editing, </span><a href="https://www.youtube.com/watch?v=HG_NZpkttXE"><span style="font-weight: 400;">viene realizzato un clone di quella persona</span></a><span style="font-weight: 400;"> che però dice o fa cose che questa persona non ha mai detto o fatto». </span><span style="font-weight: 400;">Una tendenza in rapida ascesa, tanto pericolosa quanto difficile da controllare. Secondo </span><a href="https://sitecore.vargroup.com/-/media/Project/Var-Group-Tenant/Yarix/PDF/2024_Y-REPORT_Online-ITA.pdf"><span style="font-weight: 400;">Yarix</span></a><span style="font-weight: 400;">, società che si occupa di sicurezza informatica, <mark class='mark mark-yellow'> gli incidenti informatici legati ai deepfake hanno visto un preoccupante aumento del 300% nel 2023.</mark> Un’arma subdola, capace in molti casi di distruggere delle vite. Anche perché ancora non conosciuta – e riconosciuta – da tutti.</span></p>
<h2><b>Un fenomeno ancora poco conosciuto</b></h2>
<p><span style="font-weight: 400;"><mark class='mark mark-yellow'> Secondo una recente indagine di </span><a href="https://www.previti.it/storage/app/media/Slides/Evento%20Deepfake_25Sept24.pdf"><span style="font-weight: 400;">Ipsos</span></a><span style="font-weight: 400;">, il 46% degli italiani non ha mai sentito parlare di deepfake, mentre il 24% ne ha sentito parlare ma ha dubbi in merito. Solo il 30% sa realmente di cosa si tratta. Ma chi lo conosce ne ha anche paura. </mark> Il 78% delle persone prese in esame nell’indagine si è detto preoccupato per le conseguenze che questo fenomeno comporta. A spaventare è soprattutto la passività delle persone, l’impunità di chi li crea e la crisi dei criteri per distinguere realtà e finzione. Per il 46%, inoltre, i deepfake aumentano il rischio di disinformazione. Ma come contrastare questa minaccia? Secondo l’indagine, le persone vedrebbero favorevolmente l’impiego di regole più chiare e di pene più severe, oltre che una maggiore sensibilizzazione sul tema. </span><span style="font-weight: 400;"><br />
</span></p>
<p><span style="font-weight: 400;">Negli ultimi anni, a sostegno delle vittime di deepfake e delle sue degenerazioni, come il </span><strong><i>deepnude</i></strong><span style="font-weight: 400;">, sono nate anche apposite associazioni che offrono consulenza e varie forme di supporto. Tra queste, l’italiana </span><strong><i>PermessoNegato</i></strong><span style="font-weight: 400;">, la prima in Europa ad offrire questo tipo di supporto, come spiega <strong>Noemi Tentori</strong>, membro interno ed esperta di sicurezza informatica: «L’associazione non-profit PermessoNegato nasce a fine 2019, subito dopo l’introduzione del reato di “diffusione illecita di contenuti sessualmente espliciti” nel nostro Codice Penale, con lo scopo di offrire supporto alle vittime di tale condotta. </span><span style="font-weight: 400;">Abbiamo un approccio multidisciplinare: forniamo supporto tecnologico, psicologico e legale alle vittime, garantendone l’anonimato. Crediamo molto anche nella diffusione della cultura del consenso e dell’educazione digitale, per cui investiamo nella formazione, che svolgiamo prevalentemente nelle scuole, e nella divulgazione, che attuiamo attraverso i nostri social network». </span></p>
<h2><b>Reazione a catena: dal deepfake al deepnude</b></h2>
<p><span style="font-weight: 400;">In questa </span><i><span style="font-weight: 400;">terra di nessuno</span></i><span style="font-weight: 400;"> che è il mondo virtuale, in cui tutti ormai viviamo ma a cui l’AI Act non è ancora riuscito a dare dei chiari paletti, la situazione rischia di sfuggire di mano. I settori in cui i deepfake trovano oggi applicazione sono tanti: dalla satira alla disinformazione politica per influenzare l&#8217;opinione pubblica e, in alcuni casi, anche le elezioni; dalle frodi finanziarie al cyberbullismo. </span><span style="font-weight: 400;">In Italia, specie sui social, ne girano anche alcuni abbastanza riconoscibili – un esempio su tutti, quelli col volto di Gerry Scotti – che hanno manifeste e dichiarate finalità comiche, spesso con il consenso e l&#8217;autorizzazione dei diretti interessati. «Oggi il deepfake è un po’ alla portata di tutti e può essere divertente, almeno fino a quando è dichiarato che sia un deepfake e finché non è offensivo o diventa manipolazione della realtà», precisa il professor Curioni.</span> <span style="font-weight: 400;"><br />
</span><span style="font-weight: 400;">Fino all’ultima, pericolosissima, deriva: il </span><b>deepnude</b><span style="font-weight: 400;">. Ovvero, la manipolazione di immagini e video di nudo. Quindi fake porn. Un fenomeno di violenza digitale che, per effetto domino, dà inevitabilmente il “</span><i><span style="font-weight: 400;">la</span></i><span style="font-weight: 400;">” anche ad altri fenomeni altrettanto pericolosi, come il <em><strong>revenge porn</strong></em> e il<em><strong> sextortion</strong></em> (estorsione sessuale). </span></p>
<p><span style="font-weight: 400;">Il termine </span><i><span style="font-weight: 400;">deepnude</span></i><span style="font-weight: 400;"> nasce nel 2020 dall’omonimo </span><i><span style="font-weight: 400;">bot</span></i><span style="font-weight: 400;"> dell’applicazione Telegram che permetteva di manipolare le foto e “spogliare” le persone. Ovviamente a loro insaputa. </span><a href="https://www.garanteprivacy.it/home/docweb/-/docweb-display/docweb/9470722"><span style="font-weight: 400;">Il Garante della privacy aprì un’istruttoria nei confronti dell’azienda</span></a><span style="font-weight: 400;">, poiché <mark class='mark mark-yellow'>«l</span><span style="font-weight: 400;">e gravi lesioni alla dignità e alla privacy </span><span style="font-weight: 400;"></mark></span><span style="font-weight: 400;"> a cui l’uso di un software simile espone le persone, soprattutto se minori, sono evidenti, considerati anche il rischio che tali immagini vengano usate a fini estorsivi o di revenge porn e tenuto conto dei danni irreparabili a cui potrebbe portare una incontrollata circolazione delle immagini, fino a forme di vera e propria </span><i><span style="font-weight: 400;">viralizzazione</span></i><span style="font-weight: 400;">. La facilità d’uso di questo programma rende, peraltro, potenzialmente vittime di deep fake chiunque abbia una foto sul web». </span></p>
<p><span style="font-weight: 400;"> </span><span style="font-weight: 400;">Ma il problema non è stato ancora risolto. Una recente </span><a href="https://www.wired.it/article/telegram-deepfake-bot-nudi/"><span style="font-weight: 400;">indagine di Wired</span></a><span style="font-weight: 400;"> parla dell’esistenza di almeno 50 bot capaci poter generare foto e video <em>deepnudes</em>. Secondo i dati raccolti, sarebbero circa 4 milioni gli utenti mensili che su Telegram utilizzano questi software. «Il problema è di carattere generale», chiarisce Curioni: «Se il bot viene segnalato, smette di generare i contenuti ma i video, proprio come le immagini, se sono stati scaricati o salvati, restano sulla rete». <mark class='mark mark-yellow'> </span><span style="font-weight: 400;">«Gli abusi sessuali digitali, come il revenge porn, la sextortion, la diffusione non consensuale di immagini intime, possono avere conseguenze psicologiche devastanti. Questi atti rappresentano una forma di violenza che mina profondamente l’autostima, la fiducia negli altri e il senso di sicurezza personale, generando traumi simili a quelli causati dagli abusi sessuali fisici», spiega la psicologa Ilaria Lavarini di </span><i><span style="font-weight: 400;">PermessoNegato. </span></i><span style="font-weight: 400;"></mark> </span><span style="font-weight: 400;">Paura, ansia, attacchi di panico, depressione, persino incubi notturni sono alcune delle drammatiche conseguenze che le vittime possono soffrire. Ma all’elenco si aggiungono anche altre forme di traumi che complicano le relazioni sociali con gli altri, come la paura del giudizio esterno, tanto da parte di cari e familiari, quanto di conoscenti e colleghi di lavoro: «Il danno alla reputazione, reale o percepito, può influenzare profondamente la percezione di sé, portando a un senso di alienazione dalla propria vita. Nei casi più gravi, le vittime possono ricorrere a comportamenti autolesionistici come forma di sfogo per il dolore emotivo o di punizione per il senso di colpa», prosegue la terapeuta. «Il<em> revenge porn</em>, in particolare, è associato a un alto rischio suicidario, dato l’impatto devastante sulla reputazione e sull’identità personale». </span></p>
<p><span style="font-weight: 400;">Ricorrere ad uno psicologo può essere decisivo in queste situazioni: «La gestione delle conseguenze psicologiche degli abusi sessuali digitali richiede un approccio personalizzato e multidimensionale, che affronti non solo il trauma emotivo nel presente ma anche nel futuro. </span><i><span style="font-weight: 400;">PermessoNegato</span></i><span style="font-weight: 400;"> offre supporto psicologico gratuito attraverso la collaborazione di partner esterni, che permettono alla vittima di usufruire di 3 colloqui gratuiti e la possibilità di intraprendere un percorso di psicoterapia a tariffe agevolate», conclude Lavarini.</span></p>
<h2><b>Urgono soluzioni</b></h2>
<p><span style="font-weight: 400;">Le attuali misure sembrano ancora insufficienti a contrastare il fenomeno. <mark class='mark mark-yellow'> </span><span style="font-weight: 400;">Un </span><a href="https://www.washingtonpost.com/technology/2023/11/05/ai-deepfake-porn-teens-women-impact/"><span style="font-weight: 400;">report del Washington Post</span></a><span style="font-weight: 400;"> dimostra che il numero di video pornografici deepfake caricati sul web nel 2023 è aumentato del 54% rispetto all’anno precedente. </mark> «​​Dal punto di vista istituzionale ritengo che il problema sia stato affrontato normativamente con l’introduzione di norme apposite che, <mark class='mark mark-yellow'> nel prevedere nuove ipotesi di reato – </span><a href="https://www.brocardi.it/codice-penale/libro-secondo/titolo-xii/capo-iii/sezione-iii/art612ter.html"><span style="font-weight: 400;">(art. 612 tre c.p.</span></a><span style="font-weight: 400;">) oppure sanzionando condotte prima non contemplate (art. 600 quater 1 c.p.) – hanno fornito una risposta al problema di tipo meramente sanzionatorio, ma non hanno affrontato il problema in maniera organica, con interventi volti a prevenire il fenomeno». </mark> A parlare è l’avvocato </span><b>Angelo Osvaldo Rovegno</b><span style="font-weight: 400;">, altro associato di </span><i><span style="font-weight: 400;">PermessoNegato, </span></i><span style="font-weight: 400;">che</span> <span style="font-weight: 400;">ci aiuta a capire come questi crimini informatici possono essere puniti dalla legge italiana: «Il deepfake – che nel campo di nostro interesse si sostanzia in deepnude – trova esplicita disciplina normativa nel campo della pedopornografia minorile con l&#8217;</span><i><span style="font-weight: 400;">art. 600 quater 1 c.p</span></i><span style="font-weight: 400;">, che a sua volta estende la disciplina relativa agli </span><i><span style="font-weight: 400;">art. 600 ter</span></i><span style="font-weight: 400;"> (“Pornografia minorile”) e </span><i><span style="font-weight: 400;">600 quater</span></i><span style="font-weight: 400;"> (“Detenzione o accesso a materiale pornografico”). Tutto ciò vale anche alle ipotesi nelle quali “… il materiale pornografico rappresenta immagini virtuali realizzate utilizzando immagini di minori degli anni diciotto o parti di esse […]. Per immagini virtuali si intendono immagini realizzate con tecniche di elaborazione grafica non associate in tutto o in parte a situazioni reali, la cui qualità di rappresentazione fa apparire come vere situazioni non reali”».<br />
</span></p>
<p><span style="font-weight: 400;">L’avvocato fa dunque un’importante distinzione sia in base all’età delle vittime che in base al crimine commesso: «Nel caso di </span><i><span style="font-weight: 400;">deepnude</span></i><span style="font-weight: 400;"> che coinvolga maggiorenni invece, non esiste una specifica norma incriminatrice, ma si può fare riferimento, in base alla circostanze di fatto, ad una fattispecie di reato già esistente nel nostro ordinamento, ovvero il reato di diffamazione (art. 595 c.p.). Se parliamo di </span><i><span style="font-weight: 400;">revenge porn</span></i><span style="font-weight: 400;">, che per lungo tempo ha avuto tutela giuridica all’interno della fattispecie del reato di diffamazione, dal luglio 2019 – con la legge 69/2019 – ha trovato specifica previsione con l’introduzione dell’art. 612 ter c.p. che ha normato una nuova ed autonome fattispecie di reato (</span><i><span style="font-weight: 400;">Diffusione illecita di immagini o video sessualmente espliciti</span></i><span style="font-weight: 400;">) con regime sanzionatorio maggiormente punitivo rispetto a quello previsto dal precedente art.595 c.p.».</span></p>
<h2><b>Scenari futuri</b></h2>
<p><span style="font-weight: 400;"> L’</span><b>AI Act</b><span style="font-weight: 400;">, la nuova legge dell’Unione Europea sull’intelligenza artificiale in vigore dallo scorso agosto, prevede che ogni contenuto generato dall’AI sia chiaramente etichettato come tale, per garantire trasparenza agli utenti. Ma non autorizza in ogni caso la creazione di deepnudes. Anche gli </span><b>Stati Uniti </b><span style="font-weight: 400;">hanno provato a dare una risposta concreta al problema: a luglio è stata presentata una proposta di legge, il </span><a href="https://www.commerce.senate.gov/2024/7/cantwell-blackburn-heinrich-introduce-legislation-to-combat-ai-deepfakes-put-journalists-artists-songwriters-back-in-control-of-their-content"><span style="font-weight: 400;">COPIED Act</span></a><span style="font-weight: 400;">, che impone ai produttori di deepfake gli stessi obblighi previsti dall’AI Act ed introduce pene e sanzioni per chi non rispetta la normativa. </span></p>
<p><span style="font-weight: 400;">Sempre a luglio, </span><a href="https://blog.google/products/search/google-search-explicit-deep-fake-content-update/"><span style="font-weight: 400;">Google ha annunciato un aggiornamento al suo algoritmo di ricerca</span></a><span style="font-weight: 400;">, </span><span style="font-weight: 400;">riducendo l’esposizione ai contenuti manipolati del 70% e promuovendo le fonti affidabili. L’espansione “</span><i><span style="font-weight: 400;">About this image</span></i><span style="font-weight: 400;">” su Google Lens, inoltre, permette agli utenti di verificare l’autenticità delle immagini, identificando rapidamente i contenuti manipolati. Intanto, di fronte all’assenza di una risposta rapida, concreta e, per quanto possibile, univoca da parte delle istituzioni, giornali ed utenti del web provano ad attrezzarsi con i pochi strumenti a propria disposizione. </span><a href="https://www.theguardian.com/technology/article/2024/jul/01/seven-signs-deepfake-artificial-intelligence-videos-photographs"><span style="font-weight: 400;">La dettagliatissima guida del Guardian per riconoscere i deepfake</span></a><span style="font-weight: 400;"> ne è un perfetto esempio. </span></p>
<p><span style="font-weight: 400;"><mark class='mark mark-yellow'> «In via precauzionale, per tutelarsi da eventuali </span><i><span style="font-weight: 400;">deepnude</span></i><span style="font-weight: 400;">, consigliamo di essere altrettanto prudenti nella “vita online”, così come lo siamo in quella “reale”» suggerisce Noemi Tentori. </mark> «Ad esempio, invitiamo a condividere contenuti privati solo con persone davvero degne della vostra fiducia, e a rivedere le impostazioni privacy dei vostri profili social per evitare che chiunque abbia accesso alle vostre foto ed ai vostri video».</span></p>
<p><span style="font-weight: 400;">«Il deepfake vocale è il più difficile da riconoscere: più che il modo in cui lo dice, bisogna considerare quello che l’eventuale clone dice, per esempio se sono cose che non ci aspetteremmo da quella persona», avverte ancora Alessandro Curioni. Quanto ai deepfake &#8220;visuali&#8221;, il professore spiega: «Spesso sono un po’ più imperfetti e possono essere riconosciuti se vanno un po’ a scatti, perché in teoria l’interazione dovrebbe avvenire in tempo reale».  </span></p>
<p><span style="font-weight: 400;">E proprio l’esperto, infine, ci spiega come il mondo dell’intelligenza artificiale non è affatto chiuso o soltanto pericoloso. <mark class='mark mark-yellow'> La stessa I.A., infatti, può diventare un prezioso alleato per la lotta contro l’uso (de)generativo di chatbot e intelligenze artificiali: </mark>«Attraverso un sistema chiamato G.A.N. (Generative adversarial network, </span><i><span style="font-weight: 400;">ndr</span></i><span style="font-weight: 400;">) è possibile addestrare un I.A. a riconoscere un deepfake: in questo modo, le intelligenze artificiali interagiscono e si istruiscono una con l’altra. Questo perché l’uomo ha una vista sintetica, mentre la loro, se di “vista” vogliamo parlare, è analitica, capace di analizzare pixel per pixel», conclude il docente. </span><span style="font-weight: 400;"><br />
</span><span style="font-weight: 400;">Una possibilità che ci conferma la sempreverde questione del dual-use di ogni creazione umana: il problema non è tanto lo strumento in sé, quanto l’uso che se ne fa.</span></p>
]]></content:encoded>
			<wfw:commentRss>http://www.magzine.it/intelligenza-artificiale-degenerativa-dal-deepfake-al-deepnude/feed/</wfw:commentRss>
		<slash:comments>0</slash:comments>
		</item>
		<item>
		<title>L&#8217;IA si intromette nelle elezioni turche: &#8220;è solo l&#8217;inizio&#8221;</title>
		<link>http://www.magzine.it/lia-si-intromette-nelle-elezioni-turche-e-solo-linizio/</link>
		<comments>http://www.magzine.it/lia-si-intromette-nelle-elezioni-turche-e-solo-linizio/#comments</comments>
		<pubDate>Fri, 19 May 2023 10:06:39 +0000</pubDate>
		<dc:creator><![CDATA[Lavinia Beni]]></dc:creator>
				<category><![CDATA[News Lab]]></category>
		<category><![CDATA[AI]]></category>
		<category><![CDATA[deepfake]]></category>
		<category><![CDATA[diritti]]></category>
		<category><![CDATA[diritto all'informazione]]></category>
		<category><![CDATA[elezioni]]></category>
		<category><![CDATA[Erdogan]]></category>
		<category><![CDATA[intelligenza artificiale]]></category>
		<category><![CDATA[politica]]></category>
		<category><![CDATA[Turchia]]></category>

		<guid isPermaLink="false">http://www.magzine.it/?p=66756</guid>
		<description><![CDATA[Secondo gli esperti di intelligenza artificiale, i contenuti ingannevoli generati dalla stessa potrebbero influenzare i cittadini turchi nel momento delle elezioni.Due settimane fa è stato diffuso un video in cui ...]]></description>
				<content:encoded><![CDATA[<p><img width="870" height="489" src="http://www.magzine.it/wp-content/uploads/2023/05/Turchia.jpeg" class="attachment-post-thumbnail wp-post-image" alt="Nella foto: il candidato alle presidenziali turche Kemal Kilicdaroglu. Fonte: Al-Monitor" /></p><p><mark class='mark mark-yellow'>Secondo gli esperti di intelligenza artificiale, i contenuti ingannevoli generati dalla stessa potrebbero influenzare i cittadini turchi nel momento delle elezioni.</mark>Due settimane fa è stato diffuso un video in cui <strong>Kemal Kilicdaroglu</strong>, il principale sfidante del presidente <strong>Recep Tayyip Erdogan</strong> alle elezioni presidenziali dello scorso 14 maggio, parlava perfettamente inglese. «Anche la pupilla dei miei occhi parla inglese. Ti prometto, nonno, che ti faremo presidente», ha commentato un utente di Twitter condividendo il video del candidato 74enne. Qualche giorno dopo, però, il sito web indipendente turco di fact-checking <a href="https://teyit.org/" target="_blank"><span style="color: #000000;"><em>Teyit.org</em></span></a> ha rivelato che il video era stato generata dall’IA.</p>
<p>A rivelarlo è stato il primo utente di Twitter, <strong>@ytc06</strong>, che ha condiviso il video: «Sperimento con l&#8217;intelligenza artificiale per conoscere nuove funzionalità. Ho creato la voce di Kemal Kilicdaroglu con l&#8217;AI e l&#8217;ho usata per una versione inglese del suo discorso di candidatura». Secondo lo specialista di deepfake <strong>Henry Ajder</strong>, il recente boom di accesso agli strumenti di intelligenza artificiale sta alimentando questo tipo di situazioni. Le prossime votazioni presidenziali e parlamentari turche potrebbero porre fine ai 20 anni di governo di Erdogan e modificare il panorama politico del Paese. Si tratta, inoltre, di una delle prime elezioni importanti che hanno a che fare con un&#8217;intelligenza artificiale così avanzata. <mark class='mark mark-yellow'>«Se si riesce a diffondere discorsi sofisticati e dalle caratteristiche molto umane su reti di grandi dimensioni e account non autentici attraverso un&#8217;unica narrazione, questo potrebbe ovviamente giocare un ruolo nel prendere il controllo di un&#8217;intera sfera di influenza», ha detto Ajder.</mark></span></p>
<p>Un altro candidato alle presidenziali, <strong>Muharrem Ince</strong>, si è ritirato dalla corsa giovedì scorso dopo la pubblicazione di un presunto filmato a sfondo sessuale che, a suo dire, era un deepfake. «Quello che ho visto negli ultimi 45 giorni non l&#8217;ho mai visto», ha affermato Ince nel suo discorso di dimissioni. «Hanno messo il mio volto su un video preso da un sito web porno israeliano», ha aggiunto, incolpando i giornalisti e i pubblici ministeri del Paese per non averlo protetto dalla &#8220;furia della calunnia&#8221;».</p>
<p>L&#8217;esperto turco di intelligenza artificiale <strong>Cem Say</strong> teme tattiche ancora più aggressive: <mark class='mark mark-yellow'>«I deepfake potrebbero essere usati il giorno delle elezioni con l&#8217;obiettivo di scoraggiare le persone dal recarsi alle urne o di influenzare la loro decisione»,</mark> ha detto, aggiungendo che questo non lascerebbe «tempo per le verifiche». In Turchia il 90% dei media nazionali è sotto il controllo del governo, secondo il gruppo per la libertà di stampa <em>Reporter senza frontiere (RSF)</em>. Questo, insieme alla promulgazione della legge dell&#8217;ottobre 2022 che punta a limitare la &#8220;disinformazione&#8221;, per usare le parole del governo turco, fa sì che in Turchia siano pochissimi gli organi di informazione impegnati a smascherare i deepfake.</p>
<p style="text-align: center;"><strong> Per saperne di più, continua a leggere su <a href="https://www.euronews.com/next/2023/05/12/ai-content-deepfakes-meddling-in-turkey-elections-experts-warn-its-just-the-beginning" target="_blank">Euronews.com</a>.</strong></p>
]]></content:encoded>
			<wfw:commentRss>http://www.magzine.it/lia-si-intromette-nelle-elezioni-turche-e-solo-linizio/feed/</wfw:commentRss>
		<slash:comments>1</slash:comments>
		</item>
		<item>
		<title>Università Usa inventa tool per riconoscere i deepfake</title>
		<link>http://www.magzine.it/universita-usa-inventa-tool-per-riconoscere-i-deepfake/</link>
		<comments>http://www.magzine.it/universita-usa-inventa-tool-per-riconoscere-i-deepfake/#comments</comments>
		<pubDate>Mon, 29 Mar 2021 14:34:48 +0000</pubDate>
		<dc:creator><![CDATA[Viviana Astazi]]></dc:creator>
				<category><![CDATA[News Lab]]></category>
		<category><![CDATA[A.I.]]></category>
		<category><![CDATA[algoritmo]]></category>
		<category><![CDATA[deepfake]]></category>
		<category><![CDATA[intelligenza artificiale]]></category>
		<category><![CDATA[Stati Uniti]]></category>
		<category><![CDATA[tecnologia]]></category>

		<guid isPermaLink="false">http://www.magzine.it/?p=51062</guid>
		<description><![CDATA[La Rete è esplosa dopo aver scoperto che il Tom Cruise comparso in un video su TikTok era… fake. La precisione dei nuovi software dedicati alla manipolazione delle immagini è ...]]></description>
				<content:encoded><![CDATA[<p><img width="845" height="557" src="http://www.magzine.it/wp-content/uploads/2021/03/Riflesso-luce-occhi.jpg" class="attachment-post-thumbnail wp-post-image" alt="Riflesso luce occhi" /></p><p>La Rete è esplosa dopo aver scoperto che il Tom Cruise comparso in un video su TikTok era… <em>fake</em>. La precisione dei nuovi software dedicati alla manipolazione delle immagini è ormai tale da confondere chiunque e inquieta non poco pensare ai modi distorti in cui il deepfake potrebbe essere applicato nel prossimo futuro. Da qui nasce l’esigenza di capire come identificare e distinguere il falso dal vero.</p>
<p>Gli studiosi dell’<strong>Università di Buffalo</strong>, nello Stato di New York, sono stati tra i primi ad avvertire la necessità di approntare uno strumento che possa permettere questa distinzione. Il risultato delle loro ricerche si è tradotto in un tool capace di indicare con un’accuratezza del 94% se ci si trova di fronte a immagini o a video realizzati con la tecnologia deepfake.</p>
<p><mark class='mark mark-yellow'>Per scovare il falso, l’algoritmo studia il riflesso della luce nelle iridi e nelle pupille del soggetto ritratto.</mark> Sembrerebbe infatti che l’A.I. non riesca ancora a replicare perfettamente il modo in cui la luce si rifrange sugli occhi umani.</p>
<p>Come spiega il <strong>professor Siwei Lyu</strong>, docente a Buffalo e principale autore dello studio, “La cornea è una semi sfera quasi perfetta e molto riflettente. Quando si osserva qualcosa di luminoso, entrambi gli occhi presentano riflessi simili perché la fonte di luce è la stessa”. <mark class='mark mark-yellow'>L’AI dietro ai deepfake invece non riesce a mappare in modo identico i punti luce sullo sguardo delle persone rappresentate</mark>; seppur impercettibili a una prima occhiata, ci sono evidenti differenze nella forma, nell’estensione e nel colore del riflesso tra occhio destro e sinistro nelle immagini false.</p>
<p>Non mancano i casi in cui l’algoritmo può rivelarsi inefficace. I deepfake possono sempre essere ritoccati con Photoshop e la tecnologia sviluppata all’Università di Buffalo non riuscirebbe a distinguere tra vero e falso se nelle immagini non fossero visibili entrambi gli occhi del soggetto ritratto. Al momento però il professor Lyu rivendica la validità di questo strumento, che potrebbe costituire una prima, valida chiave per smontare le video-bufale che cominciano a circolare sul Web.</p>
<p>&nbsp;</p>
<p style="text-align: center;"><strong>Per approfondire, continua a leggere su <a href="https://scitechdaily.com/new-deepfake-spotting-tool-proves-94-effective-heres-the-secret-of-its-success/">SciTechDaily</a></strong></p>
]]></content:encoded>
			<wfw:commentRss>http://www.magzine.it/universita-usa-inventa-tool-per-riconoscere-i-deepfake/feed/</wfw:commentRss>
		<slash:comments>0</slash:comments>
		</item>
		<item>
		<title>Facebook si affida a Reuters nella lotta alle fake news</title>
		<link>http://www.magzine.it/facebook-si-affida-a-reuters-nella-lotta-alle-fake-news/</link>
		<comments>http://www.magzine.it/facebook-si-affida-a-reuters-nella-lotta-alle-fake-news/#comments</comments>
		<pubDate>Tue, 05 May 2020 10:11:22 +0000</pubDate>
		<dc:creator><![CDATA[Luigi Scarano]]></dc:creator>
				<category><![CDATA[News Lab]]></category>
		<category><![CDATA[deepfake]]></category>
		<category><![CDATA[facebook]]></category>
		<category><![CDATA[fact-checking]]></category>
		<category><![CDATA[reuters]]></category>
		<category><![CDATA[video]]></category>

		<guid isPermaLink="false">http://www.magzine.it/?p=41309</guid>
		<description><![CDATA[Il fact-checking è e sarà sempre più al centro dell&#8217;attività di Reuters. Le foto dei testimoni oculari e i video diffusi online saranno analizzati mediante uno scrupoloso processo di verifica. L&#8217;agenzia di stampa porterà ...]]></description>
				<content:encoded><![CDATA[<p><img width="1920" height="1285" src="http://www.magzine.it/wp-content/uploads/2020/02/social-media-1989152_1920.jpg" class="attachment-post-thumbnail wp-post-image" alt="social-media-1989152_1920" /></p><p>Il fact-checking è e sarà sempre più al centro dell&#8217;attività di <strong>Reuters</strong>. Le foto dei testimoni oculari e i video diffusi online saranno analizzati mediante uno scrupoloso processo di verifica. <mark class='mark mark-yellow'>L&#8217;agenzia di stampa porterà ora questa esperienza nella lotta contro la disinformazione</mark> su <strong>Facebook</strong>.</p>
<p><strong>Mark Zuckerberg</strong> pagherà, infatti, Reuters per individuare le fake news sul social network. A svolgere la ricerca sarà un gruppo di lavoro, creato pochi mesi fa nell’agenzia, composto da quattro persone. Il team esaminerà video e foto prodotti dagli utenti, nonché titoli di notizie e altri contenuti segnalati su Facebook dal team del social network o dalla più ampia redazione di Reuters. che poi verranno pubblicati sul nuovo blog<strong> Reuters Fact-Check, </strong>che spiegherà il motivo della segnalazione e perché quel post è falso, parzialmente falso oppure vero.</p>
<p>Facebook userà queste informazioni per catalogare i messaggi di disinformazione come falsi, <mark class='mark mark-yellow'>declassarli nel news feed della piattaforma e limitarne la diffusione.</mark> Spiega <strong>Hazel Baker</strong>, global director dell&#8217;<strong>User Generated Content</strong> di Reuters: «Abbiamo una scala di valutazione che serve a definire se un contenuto non è stato manipolato ma è comunque fuori contesto o anacronistico (video vecchi e riciclati); se ci sono video e foto che potrebbero essere stati rallentati, accelerati, tagliati o filtrati; se abbiamo contenuti messi in scena, come video in cui l’audio è stato registrato e attribuito maliziosamente a un politico; se ci sono immagini generate al computer che possono aggiungere elementi falsi in un video vero; infine se ci sono video creati ad arte sinteticamente oppure deepfake».</p>
<p>&nbsp;</p>
<p style="text-align: center;"><strong>Per approfondire, continua la lettura su <a href="https://techcrunch.com/2020/02/12/reuters-facebook-fact-checker/%20    " target="_blank">Techcrunch</a></strong></p>
]]></content:encoded>
			<wfw:commentRss>http://www.magzine.it/facebook-si-affida-a-reuters-nella-lotta-alle-fake-news/feed/</wfw:commentRss>
		<slash:comments>0</slash:comments>
		</item>
	</channel>
</rss>

<!-- Performance optimized by W3 Total Cache. Learn more: http://www.w3-edge.com/wordpress-plugins/

Page Caching using disk: enhanced
Database Caching 1/17 queries in 0.007 seconds using disk
Object Caching 785/884 objects using disk

 Served from: www.magzine.it @ 2026-04-18 16:24:08 by W3 Total Cache -->