07/08/2018, 00:28
07/08/2018, 18:15
Mentre noi ci preoccupiamo delle fake news, su Reddit c’è un intero gruppo dedicato ai DeepFakes: video, per lo più pornografici, in cui la faccia della protagonista è stata sostituita digitalmente con quella di una attrice famosa. È ora disponibile un software che permette a tutti di fare DeepFake: si chiama FakeApp e sicuramente ne sentirete parlare molto.
Il primo utilizzo visto, come spesso succede su Internet, è stato quello applicato a brevi filmati pornografici. Il risultato è davvero, davvero impressionante.
Qui sopra un Deepfake con Daisy Ridley: la qualità è incredibile.
L’utente “deepfake” di Reddit un paio di mesi fa ha creato un intero subreddit dedicato all’argomento.
L’utente “deepfake” di Reddit un paio di mesi fa ha creato un intero subreddit col proprio nome in cui ha messo a disposizione di tutti il software che utilizza e in cui è possibile vedere gli esperimenti fatti da tantissimi utenti.
Ancora una volta mi tocca scriverlo: il risultato è assolutamente incredibile.
È chiaro che oltre all’uso pornografico questa tecnica si presta a mille altri utilizzi: guardate ad esempio cosa diventa la scena di Star Wars: Rogue One in cui si vede la principessa Leia se al posto della computer grafica (sopra) viene utilizzato FakeApp inserendo la faccia di Carrie Fisher presa dalla trilogia originale (sotto):
FakeApp a quanto pare utilizza algoritmi di Deep Learning per adattare autonomamente frame by frame le immagini.
Ovviamente non basta avere una foto qualunque per realizzare questi filmati e il software in questione è abbastanza complicato da non permettere a chiunque di tirare fuori deepfake come piovesse.
Sul subreddit dedicato è pieno zeppo di esperimenti venuti molto male e di utenti che stanno facendo pratica. Ma tutto questo è appena iniziato: cosa succederà tra un anno o due? Sarà disponibile una versione talmente user friendly che chiunque potrà utilizzarlo e creare deepfake incredibili?
Pensate a cosa altro si può fare con questa tecnologia e pensate a come potrebbe influenzare anche la politica, ad esempio, se utilizzata per cambiare il discorso di un politico, o per creare un finto filmato con qualcuno di famoso per screditarlo.
Le possibilità sono infinite. Siamo tutti davvero, davvero fottuti.
07/08/2018, 18:18
Pornhub non riesce a sconfiggere i deepfake, i finti video porno con i vip
I video deepfake, cioè delle sorta di face-swap del porno, con protagonisti personaggi famosi che non hanno mai girato quelle scene, non sono così facili da debellare: non è chiaro come il sito di intrattenimento per adulti stia fronteggiando il problema
La teoria c’era. È la pratica che sembra aver fallito. Pornhub, insieme ad un codazzo di altri servizi, Twitter compreso, a febbraio aveva annunciato guerra ai video “deepfake“. Si tratta di prodotti realizzati con l’Intelligenza Artificiale, che prendono il nome dallo stesso algoritmo utilizzato, che pesca in archivi di video – si allena con immagini da YouTube e Google, generalmente – per crearne di nuovi, rigorosamente fake, cioè finti.
Video porno che piazzano in maniera posticcia volti di persone famose su quelli dei reali protagonisti delle scene. Pare che il capostipite del “genere” sia deepfakes, un utente di Reddit che ha dato il via al processo, iniziando a pubblicare nella community r/celebfakes della piattaforma gif porno che ritraevano vari volti dello showbiz. Una specie di face swap senza consenso: per questo molti si erano detti pronti a combattere il fenomeno.
Come rivelato da BuzzFeed News però, a pochi mesi da quello che avrebbe dovuto essere un intervento netto, bastava digitare “deepfake” nella home page di Pornhub per rintracciare oltre 70 video, con rappresentazioni di personaggi famosi come Katy Perry, Scarlett Johansson, Daisy Ridley e Jennifer Lawrence.
Quasi tutti avevano la parola “deepfake” menzionata chiaramente nel titolo. Una ricerca con il composto invertito, “fake deep”, ha restituito oltre 30 video dello stesso genere.
Un fake porno con Gal Gadot (Wonder Woman)
Come non bastasse
il fatto che siano disponibili, alcuni video sono risultati addirittura sponsorizzati: BuzzFeed riportava un pre-roll dedicato a un lubrificante trasmesso prima di un falso video di Emma Watson. Non è chiaro se esistano policy ufficiali contro la pubblicazione di annunci prima dei video ritenuti “non consensuali” (dovrebbero però) o se il sito ha intenzione di modificare i suoi algoritmi di raccomandazione in modo da non far emergere nuovi video dalle categorie che ritiene “non consensuali” “agli utenti nella sua homepage.
La piattaforma non ha risposto su quanto attivamente stia monitorando il proliferare di questo tipo di contenuti, ma interrogata dalla testata sull’accaduto, ha risposto con una nota del presidente Corey Price: “I contenuti contrassegnati su Pornhub che violano direttamente i nostri Termini di servizio vengono rimossi non appena ne veniamo a conoscenza, inclusi contenuti non consensuali. Per garantire ulteriormente la sicurezza di tutti i nostri fan, abbiamo ufficialmente preso una dura posizione contro il revenge porn, che riteniamo sia una forma di violenza sessuale, e abbiamo introdotto un modulo di presentazione per la facile rimozione di contenuti non consensuali”.
Se dopo l’intervento di BuzzFeed molti video erano stati rimossi, una nuova ricerca per parola chiave condotta a distanza di mezza giornata, riportava nuovi risultati. Al momento, una ricerca per “deepfake” effettuata da Wired Italia non produce alcun risultato.
Ciò che ha scovato la testata americana inseguendo le tracce dei creatori di questi video fasulli è un mercato in espansione: un account che caricava video celebrità falsi – che BuzzFeed localizza “presumibilmente” in Russia –indirizzava i visitatori un vero e proprio negozio di deepfake, con l’invito a connettersi tramite l’app di messaggistica sicura Telegram. Proponeva l’acquisto di pacchetti, “l’accesso ai forum privati” e dei tutorial per realizzare video del genere.
Ma perché accanirsi nella ricerca e produzione di video di qualcuno che non ha spontaneamente scelto di pubblicare se stesso in un film porno? La ragione potrebbe essere vicina a quella che ha portato molti italiani a cercare, proprio su Pornhub, i video di vip che non sono, notoriamente, pornostar. Così, tanto, da farle finire nella classifica delle pornodive preferite, pur non essendolo, come abbiamo raccontato qui.
07/08/2018, 21:20
07/08/2018, 21:48
07/08/2018, 22:02
vimana131 ha scritto:Pornhub non riesce a sconfiggere i deepfake, i finti video porno con i vip
I video deepfake, cioè delle sorta di face-swap del porno, con protagonisti personaggi famosi che non hanno mai girato quelle scene, non sono così facili da debellare: non è chiaro come il sito di intrattenimento per adulti stia fronteggiando il problema
La teoria c’era. È la pratica che sembra aver fallito. Pornhub, insieme ad un codazzo di altri servizi, Twitter compreso, a febbraio aveva annunciato guerra ai video “deepfake“. Si tratta di prodotti realizzati con l’Intelligenza Artificiale, che prendono il nome dallo stesso algoritmo utilizzato, che pesca in archivi di video – si allena con immagini da YouTube e Google, generalmente – per crearne di nuovi, rigorosamente fake, cioè finti.
Video porno che piazzano in maniera posticcia volti di persone famose su quelli dei reali protagonisti delle scene. Pare che il capostipite del “genere” sia deepfakes, un utente di Reddit che ha dato il via al processo, iniziando a pubblicare nella community r/celebfakes della piattaforma gif porno che ritraevano vari volti dello showbiz. Una specie di face swap senza consenso: per questo molti si erano detti pronti a combattere il fenomeno.
Come rivelato da BuzzFeed News però, a pochi mesi da quello che avrebbe dovuto essere un intervento netto, bastava digitare “deepfake” nella home page di Pornhub per rintracciare oltre 70 video, con rappresentazioni di personaggi famosi come Katy Perry, Scarlett Johansson, Daisy Ridley e Jennifer Lawrence.
Quasi tutti avevano la parola “deepfake” menzionata chiaramente nel titolo. Una ricerca con il composto invertito, “fake deep”, ha restituito oltre 30 video dello stesso genere.
Un fake porno con Gal Gadot (Wonder Woman)
Come non bastasse
il fatto che siano disponibili, alcuni video sono risultati addirittura sponsorizzati: BuzzFeed riportava un pre-roll dedicato a un lubrificante trasmesso prima di un falso video di Emma Watson. Non è chiaro se esistano policy ufficiali contro la pubblicazione di annunci prima dei video ritenuti “non consensuali” (dovrebbero però) o se il sito ha intenzione di modificare i suoi algoritmi di raccomandazione in modo da non far emergere nuovi video dalle categorie che ritiene “non consensuali” “agli utenti nella sua homepage.
La piattaforma non ha risposto su quanto attivamente stia monitorando il proliferare di questo tipo di contenuti, ma interrogata dalla testata sull’accaduto, ha risposto con una nota del presidente Corey Price: “I contenuti contrassegnati su Pornhub che violano direttamente i nostri Termini di servizio vengono rimossi non appena ne veniamo a conoscenza, inclusi contenuti non consensuali. Per garantire ulteriormente la sicurezza di tutti i nostri fan, abbiamo ufficialmente preso una dura posizione contro il revenge porn, che riteniamo sia una forma di violenza sessuale, e abbiamo introdotto un modulo di presentazione per la facile rimozione di contenuti non consensuali”.
Se dopo l’intervento di BuzzFeed molti video erano stati rimossi, una nuova ricerca per parola chiave condotta a distanza di mezza giornata, riportava nuovi risultati. Al momento, una ricerca per “deepfake” effettuata da Wired Italia non produce alcun risultato.
Ciò che ha scovato la testata americana inseguendo le tracce dei creatori di questi video fasulli è un mercato in espansione: un account che caricava video celebrità falsi – che BuzzFeed localizza “presumibilmente” in Russia –indirizzava i visitatori un vero e proprio negozio di deepfake, con l’invito a connettersi tramite l’app di messaggistica sicura Telegram. Proponeva l’acquisto di pacchetti, “l’accesso ai forum privati” e dei tutorial per realizzare video del genere.
Ma perché accanirsi nella ricerca e produzione di video di qualcuno che non ha spontaneamente scelto di pubblicare se stesso in un film porno? La ragione potrebbe essere vicina a quella che ha portato molti italiani a cercare, proprio su Pornhub, i video di vip che non sono, notoriamente, pornostar. Così, tanto, da farle finire nella classifica delle pornodive preferite, pur non essendolo, come abbiamo raccontato qui.
https://www.wired.it/internet/web/2018/ ... ake-porno/
07/08/2018, 22:05
xfabiox ha scritto:di queste tecnologie si parlava già nel 2001 ai tempi di bin laden, dicevano appunto che l'intelligence aveva un software in cui era possibile creare video con volto e voce talmente reali da sembrare veri. probabilmente furono usati dalla cia o altri per fare i video di bin e altri personaggi e dargli in pasto ai tg e a noi popolo bue.
come molte tecnlogie militari o governative dopo molti anni poi escon
o anche per il popolo come in queso caso.
07/08/2018, 22:53
17/05/2019, 22:25
Un museo ha utilizzato DeepFake per resuscitare Salvador Dalì
Forse vi ricorderete di DeepFake, un tool che, sfruttando il machine learning, è stato utilizzato per creare dei convincenti fake porno con alcune celebrità di spicco per protagoniste. Ora la medesima tecnologia è stata usata anche dal Dalì Museum di Petersburg, che nell’installazione Dalì Lives permette di scattarsi un selfie con il defunto surrealista.
Oltre 1000 ore di video, tra vecchie interviste e cortometraggi di Salvador Dalì, sono stati dati in pasto ad un algoritmo. Poi è stato scelto un attore in carne ed ossa, con lo stesso fisico e la stessa altezza dell’artista.
Quindi il software è riuscito ad appiccicare il volto di Dalì su quello dell’attore in modo a dir poco convincente: il risultato è un video interattivo, che dà ai visitatori del museo l’impressione di trovarsi proprio difronte al pittore.Guarda su youtube.com
In totale sono stati prodotti 40 minuti di video, con centinaia di combinazioni possibili. Infatti l’installazione Dalì Lives dà ad ogni visitatore un’esperienza unica: in alcuni casi il clone digitale del surrealista legge una copia del NYW con la data corrente, in altri casi l’artista commenta il meteo, magari perché fuori, proprio in quel giorno, sta piovendo a dirotto.
Insomma, un prodotto semplicemente stupefacente, che non può non inquietarci almeno in parte: è la prova che in mano ad una squadra di professionisti questa tecnologia è già così matura da permettere di rubare l’identità di una persona, senza che un occhio mediamente attento possa rendersene conto.
Alla fine del video il Salvador Dalì virtuale chiede ai visitatori se vogliono scattarsi un selfie con lui, ed ecco che l’artista estrae dal taschino uno smartphone per fare lo scatto.
La foto viene poi mandata per email. Semplicemente geniale.
11/07/2019, 01:16
I "deepfake" che preoccupano esperti di sicurezza e politici
La diffusione di filmati manipolati - "deepfake" - preoccupa gli esperti di sicurezza: una tecnologia che potrebbe essere impiegata dagli attori non statali e dalle organizzazioni terroristiche.
Il video è stato pubblicato ieri ed è stato visto già da - quasi - un milione di persone. Nel filmato, realizzato dallo youtuber Ctrl Shift Face si vede una scena estratta dal celebre capolavoro di Stanley Kubrick, Shining. Nella pellicola Wendy Torrance si avvicina alla scrivania dove lavora il marito scrittore Jack Torrance, che nel lungometraggio di Kubrick è impersonato da Jack Nicholson: nel filmato diffuso sul web, tuttavia, il suo volto è stato sostituito da quello di Jim Carrey, pettinato e vestito come il protagonista del film. Lo youtuber è noto e abile nel creare video manipolati di questo genere che, come spiega il Corriere della Sera, hanno un nome ben preciso: "deepfake". La parola unisce "fake" (falso) a "deep", che significa "profondo" e allude al deep learning, l’apprendimento profondo di cui sono capaci alcuni sofisticati algoritmi di intelligenza artificiale.
Sul web - in particolare su Youtube - di esempi di questo genere ce ne sono a bizzeffe. Lo stesso Ctrl Shift Face ha realizzato un video di Terminator 2 sostituendo l'attore originale del film - Arnold Schwarzenegger - con Sylvester Stallone. "I video e gli audio falsi continuano a migliorare, a essere più veloci e facili da realizzare, aumentando il potenziale di danno di una tecnologia strabiliante se messi nelle mani sbagliate" spiega Bloomberg, che in un video mostra alcuni esempi di "deepfake". Insomma, finché programmi come DeepFaceLab vengono usati per realizzare filmati divertenti e per intrattenimento va bene: ma se si impiega questa tecnologia per altri scopi - politici, militari - allora i rischi diventato seri.
Come riporta IlSole24Ore, CBInsights, in un report, riporta una ricerca effettuata da alcuni scienziati dell’Università di Washington. Gli esperti hanno dapprima preso un file audio di Barack Obama. Successivamente, utilizzando un sistema neurale, hanno individuato, attraverso l’analisi di milioni di immagini dell’ex presidente degli Stati Uniti, diverse forme e posizioni casuali della sua bocca e dei suoi movimenti. Poi l’artificial intelligence (Ai) ha definito la corretta sequenza delle posizioni che si adattava al file audio. Successivamente il filmato "costruito" della parte inferiore della faccia di Obama è stato sintetizzato all’interno di un video in cui l’ex inquilino della Casa Bianca diceva tutt’altro. L’Ai è stata in grado non solo di ricomporre i movimenti della bocca ma anche particolari quali, ad esempio, il movimento delle rughe attorno alle labbra oppure al mento. Nel risultato finale Obama pronuncia una frase detta in tutt'altra occasione.
Per mezzo di questa tecnologia, sul web sono stati diffusi dei filmati pornografici con attrici famose: nel mirino dei video manipolati sono finite Katy Perry, Scarlett Johansson, Daisy Ridley e Jennifer Lawrence. Ma la diffusione di filmati manipolati preoccupa anche gli esperti di sicurezza. Come sottolinea Foreign Affairs, i "deepfakes" hanno il potenziale per essere particolarmente distruttivi perché stanno proliferando in un momento in cui sta diventando sempre più difficile separare i fatti dalla finzione. L'uso di frodi, falsificazioni e altre forme di inganno per influenzare la politica non è una novità, ovviamente. Quando la Uss Maine esplose nel porto dell'Avana nel 1898, i tabloid americani usarono resoconti fuorvianti dell'incidente per istigare il pubblico alla guerra con la Spagna.
Tuttavia, questi video manipolati, sottolinea la prestigiosa rivista americana, potrebbero essere impiegati dagli attori non statali, come i gruppi di insorti o le organizzazioni terroristiche, che possono creare e diffondere contenuti audio o video falsi ma credibili. "Un affiliato dello Stato Islamico (o ISIS) - scrive Foreign Affairs - per esempio, potrebbe creare un video che raffigura un soldato americano che spara civili o discute un piano per bombardare una moschea, aiutando la formazione terroristica a reclutare nuovi miliziani. Questi video sarebbero particolarmente difficili da ridimensionare".Guarda su youtube.com
Guarda su youtube.com
Guarda su youtube.com
12/01/2023, 23:11
05/05/2023, 01:15
06/05/2023, 00:59
24/05/2023, 19:14
07/02/2024, 01:29