Time zone: Europe/Rome [ ora legale ]




Apri un nuovo argomento Rispondi all’argomento  [ 10 messaggi ] 
Autore Messaggio

Grigio
Grigio

Avatar utente

Non connesso


Messaggi: 2731
Iscritto il: 17/01/2012, 17:31
Località:
 Oggetto del messaggio: Realtà o finzione, sapresti riconoscerla?
MessaggioInviato: 07/08/2018, 00:28 
Apro questo topic per segnalare articoli o video che parlano di quelle tecnologie già in uso o in futuro dai media o governi per far passare per reale ciò che non lo è.

inizio con questo articolo che fa rabbrividire.




di Supasorn Suwajanakorn

Guardate queste immagini. Ora, ditemi quale di questi Obama è reale. Non è facile, sembrano tutti autentici, vero? Non pensereste mai quello che vi sto per svelare. Se non sapete capire quale è reale e quale no, non vi preoccupate.

Immagine

Nessuno di questi è reale.

É spaventoso vero? Questo è il mio progetto, ma il modo in cui ho sviluppato questa tecnologia è curioso. Stavo lavorando ad un progetto volto a preservare la possibilità di conoscere l’Olocausto. Per le nuove generazioni cominciano a non comprendere appieno cosa è stato. I sopravvissuti ormai sono pochi. Come fare allora? Ho inventato una tecnologia che si chiama New Dimensions in Testimony, e permette di avere conversazioni interattive con un ologramma di un vero sopravvissuto all’Olocausto.

Le risposte sono state preregistrate in uno studio. Eppure l’effetto è stupefacente. Sembra proprio che ti stia rispondendo. Ti senti così legato alla sua storia e a lui come persona. Penso che ci sia qualcosa di speciale nell’interazione umana che la rende molto più profonda e personale di ciò che libri, conferenze o film ci possono trasmettere.

Dopo aver lavorato a questo, ho cominciato a chiedermi: possiamo creare un modello come questo per chiunque? Un modello che sembra, parla e si comporta proprio qualcuno? Così alla fine ho trovato una nuova soluzione che permette di costruire il modello di una persona utilizzando solo foto e video di una persona.

Soprattutto per i personaggi famosi, è molto facile reperire migliaia di foto e video.

Immaginate di poter ascoltare le lezioni di Richard Feynman, premio Nobel per la fisica e insegnante leggendario. Non sarebbe bello se potessimo riportarlo indietro e ascoltare cosa diceva, come insegnava. Non solo in inglese, ma in qualsiasi lingua. Oppure se potessi chiedere consiglio ai nostri nonni e sentire quelle parole confortanti, anche se non sono più con noi. Pensate a quanta conoscenza viene perduta. Gli autori di libri, vivi o meno, potrebbero leggere ad alta voce tutti i loro libri per chiunque sia interessato.

Qui potete vedere l’effetto finale. É davvero una bella cosa.

Le possibilità creative qui sono infinite, e per me è molto eccitante. Ed ecco come funziona finora.

Prima utilizziamo questa nuova tecnica di ricostruzione di volti 3D. É ad alto dettaglio, può essere fatta da qualsiasi immagine senza mai eseguire una scansione 3D della persona. Si analizzano una una grande collezione di foto e video della persona in questione. Le foto possono venire dalle vostre foto, non importa quale espressione stai facendo o dove hai scattato queste foto. Ciò che conta è che siano molte.

Il nostro obiettivo finale è quello di catturare il modo unico in cui ciascuno di noi parla, sorride, si muove. Per fare questo insegniamo al computer a imitare il modo in cui qualcuno parla, mostrando i video della persona, il suono della voce e cosi via. Per Barack Obama ho lasciato il computer guardare per 14 ore i suoi video.

Il computer poi fa muovere la bocca in sincro con l’audio. Utilizziamo una rete neurale per convertire e inserire l’audio.

Questi risultati sono molto realistici e intriganti, ma allo stesso tempo spaventosi, anche per me. Il nostro obiettivo era quello di costruire un modello accurato di persona, non quello di travisarlo. Ora una cosa che mi preoccupa è il suo potenziale uso improprio.

La gente ha pensato a questo problema per molto tempo, fin dai tempi in cui Photoshop ha fatto il suo ingresso sul mercato. Quindi ho pensato che come ricercatore, dovevo fare qualcosa.

Sono entrato così a far parte della AI Foundation, per lavorare sulla tecnologia di contromisura. Qui usiamo una combinazione di strumenti, per rilevare immagini e video falsi, combattendo contro il mio lavoro. Uno degli strumenti che abbiamo intenzione di rilasciare si chiama Reality Defender, che è un plug-in per browser web in grado di segnalare automaticamente i contenuti potenzialmente falsi, proprio nel browser.

I video falsi potrebbero fare un sacco di danni, prima ancora di verificare, quindi è molto importante che rendiamo tutti consapevoli di ciò che è attualmente possibile fare con i mezzi attuali, in modo da poter avere la giusta assunzione ed essere critici su ciò che vediamo.

Guarda su facebook.com


Top
 Profilo  
 

Pleiadiano
Pleiadiano

Avatar utente

Non connesso


Messaggi: 4393
Iscritto il: 10/01/2009, 13:06
Località: Barletta
 Oggetto del messaggio: Re: Realtà o finzione, sapresti riconoscerla?
MessaggioInviato: 07/08/2018, 18:15 
Cita:

Mentre noi ci preoccupiamo delle fake news, su Reddit c’è un intero gruppo dedicato ai DeepFakes: video, per lo più pornografici, in cui la faccia della protagonista è stata sostituita digitalmente con quella di una attrice famosa. È ora disponibile un software che permette a tutti di fare DeepFake: si chiama FakeApp e sicuramente ne sentirete parlare molto.

Il primo utilizzo visto, come spesso succede su Internet, è stato quello applicato a brevi filmati pornografici. Il risultato è davvero, davvero impressionante.

Immagine

Qui sopra un Deepfake con Daisy Ridley: la qualità è incredibile.


L’utente “deepfake” di Reddit un paio di mesi fa ha creato un intero subreddit dedicato all’argomento.

L’utente “deepfake” di Reddit un paio di mesi fa ha creato un intero subreddit col proprio nome in cui ha messo a disposizione di tutti il software che utilizza e in cui è possibile vedere gli esperimenti fatti da tantissimi utenti.

Ancora una volta mi tocca scriverlo: il risultato è assolutamente incredibile.

È chiaro che oltre all’uso pornografico questa tecnica si presta a mille altri utilizzi: guardate ad esempio cosa diventa la scena di Star Wars: Rogue One in cui si vede la principessa Leia se al posto della computer grafica (sopra) viene utilizzato FakeApp inserendo la faccia di Carrie Fisher presa dalla trilogia originale (sotto):

FakeApp a quanto pare utilizza algoritmi di Deep Learning per adattare autonomamente frame by frame le immagini.

Ovviamente non basta avere una foto qualunque per realizzare questi filmati e il software in questione è abbastanza complicato da non permettere a chiunque di tirare fuori deepfake come piovesse.

Sul subreddit dedicato è pieno zeppo di esperimenti venuti molto male e di utenti che stanno facendo pratica. Ma tutto questo è appena iniziato: cosa succederà tra un anno o due? Sarà disponibile una versione talmente user friendly che chiunque potrà utilizzarlo e creare deepfake incredibili?

Pensate a cosa altro si può fare con questa tecnologia e pensate a come potrebbe influenzare anche la politica, ad esempio, se utilizzata per cambiare il discorso di un politico, o per creare un finto filmato con qualcuno di famoso per screditarlo.

Le possibilità sono infinite. Siamo tutti davvero, davvero fottuti.



http://leganerd.com/2018/01/25/fakeapp-deepfakes/


Top
 Profilo  
 

Pleiadiano
Pleiadiano

Avatar utente

Non connesso


Messaggi: 4393
Iscritto il: 10/01/2009, 13:06
Località: Barletta
 Oggetto del messaggio: Re: Realtà o finzione, sapresti riconoscerla?
MessaggioInviato: 07/08/2018, 18:18 
Cita:
Pornhub non riesce a sconfiggere i deepfake, i finti video porno con i vip
I video deepfake, cioè delle sorta di face-swap del porno, con protagonisti personaggi famosi che non hanno mai girato quelle scene, non sono così facili da debellare: non è chiaro come il sito di intrattenimento per adulti stia fronteggiando il problema

La teoria c’era. È la pratica che sembra aver fallito. Pornhub, insieme ad un codazzo di altri servizi, Twitter compreso, a febbraio aveva annunciato guerra ai video “deepfake“. Si tratta di prodotti realizzati con l’Intelligenza Artificiale, che prendono il nome dallo stesso algoritmo utilizzato, che pesca in archivi di video – si allena con immagini da YouTube e Google, generalmente – per crearne di nuovi, rigorosamente fake, cioè finti.

Video porno che piazzano in maniera posticcia volti di persone famose su quelli dei reali protagonisti delle scene. Pare che il capostipite del “genere” sia deepfakes, un utente di Reddit che ha dato il via al processo, iniziando a pubblicare nella community r/celebfakes della piattaforma gif porno che ritraevano vari volti dello showbiz. Una specie di face swap senza consenso: per questo molti si erano detti pronti a combattere il fenomeno.

Come rivelato da BuzzFeed News però, a pochi mesi da quello che avrebbe dovuto essere un intervento netto, bastava digitare “deepfake” nella home page di Pornhub per rintracciare oltre 70 video, con rappresentazioni di personaggi famosi come Katy Perry, Scarlett Johansson, Daisy Ridley e Jennifer Lawrence.

Quasi tutti avevano la parola “deepfake” menzionata chiaramente nel titolo. Una ricerca con il composto invertito, “fake deep”, ha restituito oltre 30 video dello stesso genere.

Immagine
Un fake porno con Gal Gadot (Wonder Woman)


Come non bastasse
il fatto che siano disponibili, alcuni video sono risultati addirittura sponsorizzati: BuzzFeed riportava un pre-roll dedicato a un lubrificante trasmesso prima di un falso video di Emma Watson. Non è chiaro se esistano policy ufficiali contro la pubblicazione di annunci prima dei video ritenuti “non consensuali” (dovrebbero però) o se il sito ha intenzione di modificare i suoi algoritmi di raccomandazione in modo da non far emergere nuovi video dalle categorie che ritiene “non consensuali” “agli utenti nella sua homepage.

La piattaforma non ha risposto su quanto attivamente stia monitorando il proliferare di questo tipo di contenuti, ma interrogata dalla testata sull’accaduto, ha risposto con una nota del presidente Corey Price: “I contenuti contrassegnati su Pornhub che violano direttamente i nostri Termini di servizio vengono rimossi non appena ne veniamo a conoscenza, inclusi contenuti non consensuali. Per garantire ulteriormente la sicurezza di tutti i nostri fan, abbiamo ufficialmente preso una dura posizione contro il revenge porn, che riteniamo sia una forma di violenza sessuale, e abbiamo introdotto un modulo di presentazione per la facile rimozione di contenuti non consensuali”.

Se dopo l’intervento di BuzzFeed molti video erano stati rimossi, una nuova ricerca per parola chiave condotta a distanza di mezza giornata, riportava nuovi risultati. Al momento, una ricerca per “deepfake” effettuata da Wired Italia non produce alcun risultato.

Ciò che ha scovato la testata americana inseguendo le tracce dei creatori di questi video fasulli è un mercato in espansione: un account che caricava video celebrità falsi – che BuzzFeed localizza “presumibilmente” in Russia –indirizzava i visitatori un vero e proprio negozio di deepfake, con l’invito a connettersi tramite l’app di messaggistica sicura Telegram. Proponeva l’acquisto di pacchetti, “l’accesso ai forum privati” e dei tutorial per realizzare video del genere.

Ma perché accanirsi nella ricerca e produzione di video di qualcuno che non ha spontaneamente scelto di pubblicare se stesso in un film porno? La ragione potrebbe essere vicina a quella che ha portato molti italiani a cercare, proprio su Pornhub, i video di vip che non sono, notoriamente, pornostar. Così, tanto, da farle finire nella classifica delle pornodive preferite, pur non essendolo, come abbiamo raccontato qui.




https://www.wired.it/internet/web/2018/ ... ake-porno/


Top
 Profilo  
 

Grigio
Grigio

Avatar utente

Non connesso


Messaggi: 2731
Iscritto il: 17/01/2012, 17:31
Località:
 Oggetto del messaggio: Re: Realtà o finzione, sapresti riconoscerla?
MessaggioInviato: 07/08/2018, 21:20 
di queste tecnologie si parlava già nel 2001 ai tempi di bin laden, dicevano appunto che l'intelligence aveva un software in cui era possibile creare video con volto e voce talmente reali da sembrare veri. probabilmente furono usati dalla cia o altri per fare i video di bin e altri personaggi e dargli in pasto ai tg e a noi popolo bue.
come molte tecnlogie militari o governative dopo molti anni poi escono anche per il popolo come in queso caso.


Top
 Profilo  
 

Stellare
Stellare

Avatar utente

Non connesso


Messaggi: 11953
Iscritto il: 04/01/2017, 18:06
 Oggetto del messaggio: Re: Realtà o finzione, sapresti riconoscerla?
MessaggioInviato: 07/08/2018, 21:48 
Quindi fatemi capire meglio, secondo voi con questi software potrebbero fare un video fake dove ad esempio un presunto uomo politico potrebbe fare delle false dichiarazioni con la sua faccia e la sua voce? Mi pare pura fantascienza.



_________________
Make Italy great again!
Top
 Profilo  
 

Stellare
Stellare

Avatar utente

Non connesso


Messaggi: 16006
Iscritto il: 06/06/2009, 15:26
Località: VARESE
 Oggetto del messaggio: Re: Realtà o finzione, sapresti riconoscerla?
MessaggioInviato: 07/08/2018, 22:02 
vimana131 ha scritto:
Cita:
Pornhub non riesce a sconfiggere i deepfake, i finti video porno con i vip
I video deepfake, cioè delle sorta di face-swap del porno, con protagonisti personaggi famosi che non hanno mai girato quelle scene, non sono così facili da debellare: non è chiaro come il sito di intrattenimento per adulti stia fronteggiando il problema

La teoria c’era. È la pratica che sembra aver fallito. Pornhub, insieme ad un codazzo di altri servizi, Twitter compreso, a febbraio aveva annunciato guerra ai video “deepfake“. Si tratta di prodotti realizzati con l’Intelligenza Artificiale, che prendono il nome dallo stesso algoritmo utilizzato, che pesca in archivi di video – si allena con immagini da YouTube e Google, generalmente – per crearne di nuovi, rigorosamente fake, cioè finti.

Video porno che piazzano in maniera posticcia volti di persone famose su quelli dei reali protagonisti delle scene. Pare che il capostipite del “genere” sia deepfakes, un utente di Reddit che ha dato il via al processo, iniziando a pubblicare nella community r/celebfakes della piattaforma gif porno che ritraevano vari volti dello showbiz. Una specie di face swap senza consenso: per questo molti si erano detti pronti a combattere il fenomeno.

Come rivelato da BuzzFeed News però, a pochi mesi da quello che avrebbe dovuto essere un intervento netto, bastava digitare “deepfake” nella home page di Pornhub per rintracciare oltre 70 video, con rappresentazioni di personaggi famosi come Katy Perry, Scarlett Johansson, Daisy Ridley e Jennifer Lawrence.

Quasi tutti avevano la parola “deepfake” menzionata chiaramente nel titolo. Una ricerca con il composto invertito, “fake deep”, ha restituito oltre 30 video dello stesso genere.

Immagine
Un fake porno con Gal Gadot (Wonder Woman)


Come non bastasse
il fatto che siano disponibili, alcuni video sono risultati addirittura sponsorizzati: BuzzFeed riportava un pre-roll dedicato a un lubrificante trasmesso prima di un falso video di Emma Watson. Non è chiaro se esistano policy ufficiali contro la pubblicazione di annunci prima dei video ritenuti “non consensuali” (dovrebbero però) o se il sito ha intenzione di modificare i suoi algoritmi di raccomandazione in modo da non far emergere nuovi video dalle categorie che ritiene “non consensuali” “agli utenti nella sua homepage.

La piattaforma non ha risposto su quanto attivamente stia monitorando il proliferare di questo tipo di contenuti, ma interrogata dalla testata sull’accaduto, ha risposto con una nota del presidente Corey Price: “I contenuti contrassegnati su Pornhub che violano direttamente i nostri Termini di servizio vengono rimossi non appena ne veniamo a conoscenza, inclusi contenuti non consensuali. Per garantire ulteriormente la sicurezza di tutti i nostri fan, abbiamo ufficialmente preso una dura posizione contro il revenge porn, che riteniamo sia una forma di violenza sessuale, e abbiamo introdotto un modulo di presentazione per la facile rimozione di contenuti non consensuali”.

Se dopo l’intervento di BuzzFeed molti video erano stati rimossi, una nuova ricerca per parola chiave condotta a distanza di mezza giornata, riportava nuovi risultati. Al momento, una ricerca per “deepfake” effettuata da Wired Italia non produce alcun risultato.

Ciò che ha scovato la testata americana inseguendo le tracce dei creatori di questi video fasulli è un mercato in espansione: un account che caricava video celebrità falsi – che BuzzFeed localizza “presumibilmente” in Russia –indirizzava i visitatori un vero e proprio negozio di deepfake, con l’invito a connettersi tramite l’app di messaggistica sicura Telegram. Proponeva l’acquisto di pacchetti, “l’accesso ai forum privati” e dei tutorial per realizzare video del genere.

Ma perché accanirsi nella ricerca e produzione di video di qualcuno che non ha spontaneamente scelto di pubblicare se stesso in un film porno? La ragione potrebbe essere vicina a quella che ha portato molti italiani a cercare, proprio su Pornhub, i video di vip che non sono, notoriamente, pornostar. Così, tanto, da farle finire nella classifica delle pornodive preferite, pur non essendolo, come abbiamo raccontato qui.




https://www.wired.it/internet/web/2018/ ... ake-porno/



bè questa cosa dei porno amatoriali con attori famosi,
fatti girare da ex fidanzati ecc.
che sarebbero dei fake..
mi pare un pò comodo però..

oggi girano tutti mini clip ecc.
anche attori e vip,
è prassi comune, basta uno smart phone,
adesso però se salta fuori qualcosa,
fidanzato geloso, hackeraggi vari, ecc.
c'è la scusa del fake costruito..

mi pare un pò una furbata..

insomma pamela anderson che pompava tommy lee
era l'originale non un fake,
così paris hilton ecc.

quindi da ora in poi per tutelare i vip e evitare scandali
si dirà che era tutto costruito con software??

lo stesso per filmati scomodi, ecc.

mah..


Ultima modifica di mik.300 il 07/08/2018, 22:06, modificato 1 volta in totale.

Top
 Profilo  
 

Stellare
Stellare

Avatar utente

Non connesso


Messaggi: 16006
Iscritto il: 06/06/2009, 15:26
Località: VARESE
 Oggetto del messaggio: Re: Realtà o finzione, sapresti riconoscerla?
MessaggioInviato: 07/08/2018, 22:05 
xfabiox ha scritto:
di queste tecnologie si parlava già nel 2001 ai tempi di bin laden, dicevano appunto che l'intelligence aveva un software in cui era possibile creare video con volto e voce talmente reali da sembrare veri. probabilmente furono usati dalla cia o altri per fare i video di bin e altri personaggi e dargli in pasto ai tg e a noi popolo bue.
come molte tecnlogie militari o governative dopo molti anni poi escon
o anche per il popolo come in queso caso.


si c sono parti di film inteament costruite al computer,
vedi matrix revolution, star wars, ecc.
però un occhio attento non c casca..

qui mi pare che stiamo esagerando..


Top
 Profilo  
 

Grigio
Grigio

Avatar utente

Non connesso


Messaggi: 2731
Iscritto il: 17/01/2012, 17:31
Località:
 Oggetto del messaggio: Re: Realtà o finzione, sapresti riconoscerla?
MessaggioInviato: 07/08/2018, 22:53 
eppure è così non servono per tutelare i vip dal sesso, quello del porno sono prove che fanno sti segaioli da pc. questi software esistono e possono servire per inventare discorsi di politici, di vip scomodi ecc... come ho già detto li usarono per bin. basta guardare il video con i 4 obama tutti fake ma sembrano reali.
matrix è roba preistorica ormai, nei film di oggi anche non di fantascienza o fantasy, ma in film normali come wolf of wallstreet usano fondali in chroma key e green screen ma nessuno se ne è accorto. se vogliono possono mandare in tutti i tg mondiali un video di uno sbarco ufo o di una guerra o altro e nessuno se ne accorgerebbe.
cosa che fanno già, ci sono prove di video mandati dai tg girati in chroma key fatti passare per reali.


Top
 Profilo  
 

Pleiadiano
Pleiadiano

Avatar utente

Non connesso


Messaggi: 4393
Iscritto il: 10/01/2009, 13:06
Località: Barletta
 Oggetto del messaggio: Re: Realtà o finzione, sapresti riconoscerla?
MessaggioInviato: 17/05/2019, 22:25 
Cita:

Un museo ha utilizzato DeepFake per resuscitare Salvador Dalì

Immagine

Forse vi ricorderete di DeepFake, un tool che, sfruttando il machine learning, è stato utilizzato per creare dei convincenti fake porno con alcune celebrità di spicco per protagoniste. Ora la medesima tecnologia è stata usata anche dal Dalì Museum di Petersburg, che nell’installazione Dalì Lives permette di scattarsi un selfie con il defunto surrealista.

Oltre 1000 ore di video, tra vecchie interviste e cortometraggi di Salvador Dalì, sono stati dati in pasto ad un algoritmo. Poi è stato scelto un attore in carne ed ossa, con lo stesso fisico e la stessa altezza dell’artista.
Quindi il software è riuscito ad appiccicare il volto di Dalì su quello dell’attore in modo a dir poco convincente: il risultato è un video interattivo, che dà ai visitatori del museo l’impressione di trovarsi proprio difronte al pittore.

Guarda su youtube.com


In totale sono stati prodotti 40 minuti di video, con centinaia di combinazioni possibili. Infatti l’installazione Dalì Lives dà ad ogni visitatore un’esperienza unica: in alcuni casi il clone digitale del surrealista legge una copia del NYW con la data corrente, in altri casi l’artista commenta il meteo, magari perché fuori, proprio in quel giorno, sta piovendo a dirotto.

Insomma, un prodotto semplicemente stupefacente, che non può non inquietarci almeno in parte: è la prova che in mano ad una squadra di professionisti questa tecnologia è già così matura da permettere di rubare l’identità di una persona, senza che un occhio mediamente attento possa rendersene conto.

Immagine

Alla fine del video il Salvador Dalì virtuale chiede ai visitatori se vogliono scattarsi un selfie con lui, ed ecco che l’artista estrae dal taschino uno smartphone per fare lo scatto.

La foto viene poi mandata per email. Semplicemente geniale.




https://leganerd.com/2019/05/12/un-muse ... ador-dali/


Top
 Profilo  
 

Pleiadiano
Pleiadiano

Avatar utente

Non connesso


Messaggi: 4393
Iscritto il: 10/01/2009, 13:06
Località: Barletta
 Oggetto del messaggio: Re: Realtà o finzione, sapresti riconoscerla?
MessaggioInviato: 11/07/2019, 01:16 
Cita:

I "deepfake" che preoccupano esperti di sicurezza e politici

La diffusione di filmati manipolati - "deepfake" - preoccupa gli esperti di sicurezza: una tecnologia che potrebbe essere impiegata dagli attori non statali e dalle organizzazioni terroristiche.


Il video è stato pubblicato ieri ed è stato visto già da - quasi - un milione di persone. Nel filmato, realizzato dallo youtuber Ctrl Shift Face si vede una scena estratta dal celebre capolavoro di Stanley Kubrick, Shining. Nella pellicola Wendy Torrance si avvicina alla scrivania dove lavora il marito scrittore Jack Torrance, che nel lungometraggio di Kubrick è impersonato da Jack Nicholson: nel filmato diffuso sul web, tuttavia, il suo volto è stato sostituito da quello di Jim Carrey, pettinato e vestito come il protagonista del film. Lo youtuber è noto e abile nel creare video manipolati di questo genere che, come spiega il Corriere della Sera, hanno un nome ben preciso: "deepfake". La parola unisce "fake" (falso) a "deep", che significa "profondo" e allude al deep learning, l’apprendimento profondo di cui sono capaci alcuni sofisticati algoritmi di intelligenza artificiale.

Sul web - in particolare su Youtube - di esempi di questo genere ce ne sono a bizzeffe. Lo stesso Ctrl Shift Face ha realizzato un video di Terminator 2 sostituendo l'attore originale del film - Arnold Schwarzenegger - con Sylvester Stallone. "I video e gli audio falsi continuano a migliorare, a essere più veloci e facili da realizzare, aumentando il potenziale di danno di una tecnologia strabiliante se messi nelle mani sbagliate" spiega Bloomberg, che in un video mostra alcuni esempi di "deepfake". Insomma, finché programmi come DeepFaceLab vengono usati per realizzare filmati divertenti e per intrattenimento va bene: ma se si impiega questa tecnologia per altri scopi - politici, militari - allora i rischi diventato seri.

Come riporta IlSole24Ore, CBInsights, in un report, riporta una ricerca effettuata da alcuni scienziati dell’Università di Washington. Gli esperti hanno dapprima preso un file audio di Barack Obama. Successivamente, utilizzando un sistema neurale, hanno individuato, attraverso l’analisi di milioni di immagini dell’ex presidente degli Stati Uniti, diverse forme e posizioni casuali della sua bocca e dei suoi movimenti. Poi l’artificial intelligence (Ai) ha definito la corretta sequenza delle posizioni che si adattava al file audio. Successivamente il filmato "costruito" della parte inferiore della faccia di Obama è stato sintetizzato all’interno di un video in cui l’ex inquilino della Casa Bianca diceva tutt’altro. L’Ai è stata in grado non solo di ricomporre i movimenti della bocca ma anche particolari quali, ad esempio, il movimento delle rughe attorno alle labbra oppure al mento. Nel risultato finale Obama pronuncia una frase detta in tutt'altra occasione.

Per mezzo di questa tecnologia, sul web sono stati diffusi dei filmati pornografici con attrici famose: nel mirino dei video manipolati sono finite Katy Perry, Scarlett Johansson, Daisy Ridley e Jennifer Lawrence. Ma la diffusione di filmati manipolati preoccupa anche gli esperti di sicurezza. Come sottolinea Foreign Affairs, i "deepfakes" hanno il potenziale per essere particolarmente distruttivi perché stanno proliferando in un momento in cui sta diventando sempre più difficile separare i fatti dalla finzione. L'uso di frodi, falsificazioni e altre forme di inganno per influenzare la politica non è una novità, ovviamente. Quando la Uss Maine esplose nel porto dell'Avana nel 1898, i tabloid americani usarono resoconti fuorvianti dell'incidente per istigare il pubblico alla guerra con la Spagna.

Tuttavia, questi video manipolati, sottolinea la prestigiosa rivista americana, potrebbero essere impiegati dagli attori non statali, come i gruppi di insorti o le organizzazioni terroristiche, che possono creare e diffondere contenuti audio o video falsi ma credibili. "Un affiliato dello Stato Islamico (o ISIS) - scrive Foreign Affairs - per esempio, potrebbe creare un video che raffigura un soldato americano che spara civili o discute un piano per bombardare una moschea, aiutando la formazione terroristica a reclutare nuovi miliziani. Questi video sarebbero particolarmente difficili da ridimensionare".

Guarda su youtube.com

Guarda su youtube.com

Guarda su youtube.com





http://www.ilgiornale.it/news/mondo/jim ... 24478.html


Top
 Profilo  
 
Visualizza ultimi messaggi:  Ordina per  
Apri un nuovo argomento Rispondi all’argomento  [ 10 messaggi ] 

Time zone: Europe/Rome [ ora legale ]


Non puoi aprire nuovi argomenti
Non puoi rispondere negli argomenti
Non puoi modificare i tuoi messaggi
Non puoi cancellare i tuoi messaggi
Non puoi inviare allegati

Cerca per:
Vai a:  
cron
Oggi è 21/09/2019, 19:16
© 2015 UfoPlanet di Ufoforum.it, © RMcGirr83.org