Time zone: Europe/Rome




Apri un nuovo argomento Rispondi all’argomento  [ 15 messaggi ] 
Autore Messaggio

Grigio
Grigio

Avatar utente

Non connesso


Messaggi: 2731
Iscritto il: 17/01/2012, 17:31
Località:
 Oggetto del messaggio: Realtà o finzione, sapresti riconoscerla?
MessaggioInviato: 07/08/2018, 00:28 
Apro questo topic per segnalare articoli o video che parlano di quelle tecnologie già in uso o in futuro dai media o governi per far passare per reale ciò che non lo è.

inizio con questo articolo che fa rabbrividire.




di Supasorn Suwajanakorn

Guardate queste immagini. Ora, ditemi quale di questi Obama è reale. Non è facile, sembrano tutti autentici, vero? Non pensereste mai quello che vi sto per svelare. Se non sapete capire quale è reale e quale no, non vi preoccupate.

Immagine

Nessuno di questi è reale.

É spaventoso vero? Questo è il mio progetto, ma il modo in cui ho sviluppato questa tecnologia è curioso. Stavo lavorando ad un progetto volto a preservare la possibilità di conoscere l’Olocausto. Per le nuove generazioni cominciano a non comprendere appieno cosa è stato. I sopravvissuti ormai sono pochi. Come fare allora? Ho inventato una tecnologia che si chiama New Dimensions in Testimony, e permette di avere conversazioni interattive con un ologramma di un vero sopravvissuto all’Olocausto.

Le risposte sono state preregistrate in uno studio. Eppure l’effetto è stupefacente. Sembra proprio che ti stia rispondendo. Ti senti così legato alla sua storia e a lui come persona. Penso che ci sia qualcosa di speciale nell’interazione umana che la rende molto più profonda e personale di ciò che libri, conferenze o film ci possono trasmettere.

Dopo aver lavorato a questo, ho cominciato a chiedermi: possiamo creare un modello come questo per chiunque? Un modello che sembra, parla e si comporta proprio qualcuno? Così alla fine ho trovato una nuova soluzione che permette di costruire il modello di una persona utilizzando solo foto e video di una persona.

Soprattutto per i personaggi famosi, è molto facile reperire migliaia di foto e video.

Immaginate di poter ascoltare le lezioni di Richard Feynman, premio Nobel per la fisica e insegnante leggendario. Non sarebbe bello se potessimo riportarlo indietro e ascoltare cosa diceva, come insegnava. Non solo in inglese, ma in qualsiasi lingua. Oppure se potessi chiedere consiglio ai nostri nonni e sentire quelle parole confortanti, anche se non sono più con noi. Pensate a quanta conoscenza viene perduta. Gli autori di libri, vivi o meno, potrebbero leggere ad alta voce tutti i loro libri per chiunque sia interessato.

Qui potete vedere l’effetto finale. É davvero una bella cosa.

Le possibilità creative qui sono infinite, e per me è molto eccitante. Ed ecco come funziona finora.

Prima utilizziamo questa nuova tecnica di ricostruzione di volti 3D. É ad alto dettaglio, può essere fatta da qualsiasi immagine senza mai eseguire una scansione 3D della persona. Si analizzano una una grande collezione di foto e video della persona in questione. Le foto possono venire dalle vostre foto, non importa quale espressione stai facendo o dove hai scattato queste foto. Ciò che conta è che siano molte.

Il nostro obiettivo finale è quello di catturare il modo unico in cui ciascuno di noi parla, sorride, si muove. Per fare questo insegniamo al computer a imitare il modo in cui qualcuno parla, mostrando i video della persona, il suono della voce e cosi via. Per Barack Obama ho lasciato il computer guardare per 14 ore i suoi video.

Il computer poi fa muovere la bocca in sincro con l’audio. Utilizziamo una rete neurale per convertire e inserire l’audio.

Questi risultati sono molto realistici e intriganti, ma allo stesso tempo spaventosi, anche per me. Il nostro obiettivo era quello di costruire un modello accurato di persona, non quello di travisarlo. Ora una cosa che mi preoccupa è il suo potenziale uso improprio.

La gente ha pensato a questo problema per molto tempo, fin dai tempi in cui Photoshop ha fatto il suo ingresso sul mercato. Quindi ho pensato che come ricercatore, dovevo fare qualcosa.

Sono entrato così a far parte della AI Foundation, per lavorare sulla tecnologia di contromisura. Qui usiamo una combinazione di strumenti, per rilevare immagini e video falsi, combattendo contro il mio lavoro. Uno degli strumenti che abbiamo intenzione di rilasciare si chiama Reality Defender, che è un plug-in per browser web in grado di segnalare automaticamente i contenuti potenzialmente falsi, proprio nel browser.

I video falsi potrebbero fare un sacco di danni, prima ancora di verificare, quindi è molto importante che rendiamo tutti consapevoli di ciò che è attualmente possibile fare con i mezzi attuali, in modo da poter avere la giusta assunzione ed essere critici su ciò che vediamo.

Guarda su facebook.com


Top
 Profilo  
 

Essere Interdimensionale
Essere Interdimensionale

Avatar utente

Non connesso


Messaggi: 6968
Iscritto il: 10/01/2009, 13:06
Località: Barletta
 Oggetto del messaggio: Re: Realtà o finzione, sapresti riconoscerla?
MessaggioInviato: 07/08/2018, 18:15 
Cita:

Mentre noi ci preoccupiamo delle fake news, su Reddit c’è un intero gruppo dedicato ai DeepFakes: video, per lo più pornografici, in cui la faccia della protagonista è stata sostituita digitalmente con quella di una attrice famosa. È ora disponibile un software che permette a tutti di fare DeepFake: si chiama FakeApp e sicuramente ne sentirete parlare molto.

Il primo utilizzo visto, come spesso succede su Internet, è stato quello applicato a brevi filmati pornografici. Il risultato è davvero, davvero impressionante.

Immagine

Qui sopra un Deepfake con Daisy Ridley: la qualità è incredibile.


L’utente “deepfake” di Reddit un paio di mesi fa ha creato un intero subreddit dedicato all’argomento.

L’utente “deepfake” di Reddit un paio di mesi fa ha creato un intero subreddit col proprio nome in cui ha messo a disposizione di tutti il software che utilizza e in cui è possibile vedere gli esperimenti fatti da tantissimi utenti.

Ancora una volta mi tocca scriverlo: il risultato è assolutamente incredibile.

È chiaro che oltre all’uso pornografico questa tecnica si presta a mille altri utilizzi: guardate ad esempio cosa diventa la scena di Star Wars: Rogue One in cui si vede la principessa Leia se al posto della computer grafica (sopra) viene utilizzato FakeApp inserendo la faccia di Carrie Fisher presa dalla trilogia originale (sotto):

FakeApp a quanto pare utilizza algoritmi di Deep Learning per adattare autonomamente frame by frame le immagini.

Ovviamente non basta avere una foto qualunque per realizzare questi filmati e il software in questione è abbastanza complicato da non permettere a chiunque di tirare fuori deepfake come piovesse.

Sul subreddit dedicato è pieno zeppo di esperimenti venuti molto male e di utenti che stanno facendo pratica. Ma tutto questo è appena iniziato: cosa succederà tra un anno o due? Sarà disponibile una versione talmente user friendly che chiunque potrà utilizzarlo e creare deepfake incredibili?

Pensate a cosa altro si può fare con questa tecnologia e pensate a come potrebbe influenzare anche la politica, ad esempio, se utilizzata per cambiare il discorso di un politico, o per creare un finto filmato con qualcuno di famoso per screditarlo.

Le possibilità sono infinite. Siamo tutti davvero, davvero fottuti.



http://leganerd.com/2018/01/25/fakeapp-deepfakes/


Top
 Profilo  
 

Essere Interdimensionale
Essere Interdimensionale

Avatar utente

Non connesso


Messaggi: 6968
Iscritto il: 10/01/2009, 13:06
Località: Barletta
 Oggetto del messaggio: Re: Realtà o finzione, sapresti riconoscerla?
MessaggioInviato: 07/08/2018, 18:18 
Cita:
Pornhub non riesce a sconfiggere i deepfake, i finti video porno con i vip
I video deepfake, cioè delle sorta di face-swap del porno, con protagonisti personaggi famosi che non hanno mai girato quelle scene, non sono così facili da debellare: non è chiaro come il sito di intrattenimento per adulti stia fronteggiando il problema

La teoria c’era. È la pratica che sembra aver fallito. Pornhub, insieme ad un codazzo di altri servizi, Twitter compreso, a febbraio aveva annunciato guerra ai video “deepfake“. Si tratta di prodotti realizzati con l’Intelligenza Artificiale, che prendono il nome dallo stesso algoritmo utilizzato, che pesca in archivi di video – si allena con immagini da YouTube e Google, generalmente – per crearne di nuovi, rigorosamente fake, cioè finti.

Video porno che piazzano in maniera posticcia volti di persone famose su quelli dei reali protagonisti delle scene. Pare che il capostipite del “genere” sia deepfakes, un utente di Reddit che ha dato il via al processo, iniziando a pubblicare nella community r/celebfakes della piattaforma gif porno che ritraevano vari volti dello showbiz. Una specie di face swap senza consenso: per questo molti si erano detti pronti a combattere il fenomeno.

Come rivelato da BuzzFeed News però, a pochi mesi da quello che avrebbe dovuto essere un intervento netto, bastava digitare “deepfake” nella home page di Pornhub per rintracciare oltre 70 video, con rappresentazioni di personaggi famosi come Katy Perry, Scarlett Johansson, Daisy Ridley e Jennifer Lawrence.

Quasi tutti avevano la parola “deepfake” menzionata chiaramente nel titolo. Una ricerca con il composto invertito, “fake deep”, ha restituito oltre 30 video dello stesso genere.

Immagine
Un fake porno con Gal Gadot (Wonder Woman)


Come non bastasse
il fatto che siano disponibili, alcuni video sono risultati addirittura sponsorizzati: BuzzFeed riportava un pre-roll dedicato a un lubrificante trasmesso prima di un falso video di Emma Watson. Non è chiaro se esistano policy ufficiali contro la pubblicazione di annunci prima dei video ritenuti “non consensuali” (dovrebbero però) o se il sito ha intenzione di modificare i suoi algoritmi di raccomandazione in modo da non far emergere nuovi video dalle categorie che ritiene “non consensuali” “agli utenti nella sua homepage.

La piattaforma non ha risposto su quanto attivamente stia monitorando il proliferare di questo tipo di contenuti, ma interrogata dalla testata sull’accaduto, ha risposto con una nota del presidente Corey Price: “I contenuti contrassegnati su Pornhub che violano direttamente i nostri Termini di servizio vengono rimossi non appena ne veniamo a conoscenza, inclusi contenuti non consensuali. Per garantire ulteriormente la sicurezza di tutti i nostri fan, abbiamo ufficialmente preso una dura posizione contro il revenge porn, che riteniamo sia una forma di violenza sessuale, e abbiamo introdotto un modulo di presentazione per la facile rimozione di contenuti non consensuali”.

Se dopo l’intervento di BuzzFeed molti video erano stati rimossi, una nuova ricerca per parola chiave condotta a distanza di mezza giornata, riportava nuovi risultati. Al momento, una ricerca per “deepfake” effettuata da Wired Italia non produce alcun risultato.

Ciò che ha scovato la testata americana inseguendo le tracce dei creatori di questi video fasulli è un mercato in espansione: un account che caricava video celebrità falsi – che BuzzFeed localizza “presumibilmente” in Russia –indirizzava i visitatori un vero e proprio negozio di deepfake, con l’invito a connettersi tramite l’app di messaggistica sicura Telegram. Proponeva l’acquisto di pacchetti, “l’accesso ai forum privati” e dei tutorial per realizzare video del genere.

Ma perché accanirsi nella ricerca e produzione di video di qualcuno che non ha spontaneamente scelto di pubblicare se stesso in un film porno? La ragione potrebbe essere vicina a quella che ha portato molti italiani a cercare, proprio su Pornhub, i video di vip che non sono, notoriamente, pornostar. Così, tanto, da farle finire nella classifica delle pornodive preferite, pur non essendolo, come abbiamo raccontato qui.




https://www.wired.it/internet/web/2018/ ... ake-porno/


Top
 Profilo  
 

Grigio
Grigio

Avatar utente

Non connesso


Messaggi: 2731
Iscritto il: 17/01/2012, 17:31
Località:
 Oggetto del messaggio: Re: Realtà o finzione, sapresti riconoscerla?
MessaggioInviato: 07/08/2018, 21:20 
di queste tecnologie si parlava già nel 2001 ai tempi di bin laden, dicevano appunto che l'intelligence aveva un software in cui era possibile creare video con volto e voce talmente reali da sembrare veri. probabilmente furono usati dalla cia o altri per fare i video di bin e altri personaggi e dargli in pasto ai tg e a noi popolo bue.
come molte tecnlogie militari o governative dopo molti anni poi escono anche per il popolo come in queso caso.


Top
 Profilo  
 

Stellare
Stellare

Avatar utente

Non connesso


Messaggi: 12999
Iscritto il: 04/01/2017, 18:06
 Oggetto del messaggio: Re: Realtà o finzione, sapresti riconoscerla?
MessaggioInviato: 07/08/2018, 21:48 
Quindi fatemi capire meglio, secondo voi con questi software potrebbero fare un video fake dove ad esempio un presunto uomo politico potrebbe fare delle false dichiarazioni con la sua faccia e la sua voce? Mi pare pura fantascienza.



_________________
niente è come sembra, tutto è come appare
Top
 Profilo  
 

Stellare
Stellare

Avatar utente

Non connesso


Messaggi: 19758
Iscritto il: 06/06/2009, 15:26
Località: VARESE
 Oggetto del messaggio: Re: Realtà o finzione, sapresti riconoscerla?
MessaggioInviato: 07/08/2018, 22:02 
vimana131 ha scritto:
Cita:
Pornhub non riesce a sconfiggere i deepfake, i finti video porno con i vip
I video deepfake, cioè delle sorta di face-swap del porno, con protagonisti personaggi famosi che non hanno mai girato quelle scene, non sono così facili da debellare: non è chiaro come il sito di intrattenimento per adulti stia fronteggiando il problema

La teoria c’era. È la pratica che sembra aver fallito. Pornhub, insieme ad un codazzo di altri servizi, Twitter compreso, a febbraio aveva annunciato guerra ai video “deepfake“. Si tratta di prodotti realizzati con l’Intelligenza Artificiale, che prendono il nome dallo stesso algoritmo utilizzato, che pesca in archivi di video – si allena con immagini da YouTube e Google, generalmente – per crearne di nuovi, rigorosamente fake, cioè finti.

Video porno che piazzano in maniera posticcia volti di persone famose su quelli dei reali protagonisti delle scene. Pare che il capostipite del “genere” sia deepfakes, un utente di Reddit che ha dato il via al processo, iniziando a pubblicare nella community r/celebfakes della piattaforma gif porno che ritraevano vari volti dello showbiz. Una specie di face swap senza consenso: per questo molti si erano detti pronti a combattere il fenomeno.

Come rivelato da BuzzFeed News però, a pochi mesi da quello che avrebbe dovuto essere un intervento netto, bastava digitare “deepfake” nella home page di Pornhub per rintracciare oltre 70 video, con rappresentazioni di personaggi famosi come Katy Perry, Scarlett Johansson, Daisy Ridley e Jennifer Lawrence.

Quasi tutti avevano la parola “deepfake” menzionata chiaramente nel titolo. Una ricerca con il composto invertito, “fake deep”, ha restituito oltre 30 video dello stesso genere.

Immagine
Un fake porno con Gal Gadot (Wonder Woman)


Come non bastasse
il fatto che siano disponibili, alcuni video sono risultati addirittura sponsorizzati: BuzzFeed riportava un pre-roll dedicato a un lubrificante trasmesso prima di un falso video di Emma Watson. Non è chiaro se esistano policy ufficiali contro la pubblicazione di annunci prima dei video ritenuti “non consensuali” (dovrebbero però) o se il sito ha intenzione di modificare i suoi algoritmi di raccomandazione in modo da non far emergere nuovi video dalle categorie che ritiene “non consensuali” “agli utenti nella sua homepage.

La piattaforma non ha risposto su quanto attivamente stia monitorando il proliferare di questo tipo di contenuti, ma interrogata dalla testata sull’accaduto, ha risposto con una nota del presidente Corey Price: “I contenuti contrassegnati su Pornhub che violano direttamente i nostri Termini di servizio vengono rimossi non appena ne veniamo a conoscenza, inclusi contenuti non consensuali. Per garantire ulteriormente la sicurezza di tutti i nostri fan, abbiamo ufficialmente preso una dura posizione contro il revenge porn, che riteniamo sia una forma di violenza sessuale, e abbiamo introdotto un modulo di presentazione per la facile rimozione di contenuti non consensuali”.

Se dopo l’intervento di BuzzFeed molti video erano stati rimossi, una nuova ricerca per parola chiave condotta a distanza di mezza giornata, riportava nuovi risultati. Al momento, una ricerca per “deepfake” effettuata da Wired Italia non produce alcun risultato.

Ciò che ha scovato la testata americana inseguendo le tracce dei creatori di questi video fasulli è un mercato in espansione: un account che caricava video celebrità falsi – che BuzzFeed localizza “presumibilmente” in Russia –indirizzava i visitatori un vero e proprio negozio di deepfake, con l’invito a connettersi tramite l’app di messaggistica sicura Telegram. Proponeva l’acquisto di pacchetti, “l’accesso ai forum privati” e dei tutorial per realizzare video del genere.

Ma perché accanirsi nella ricerca e produzione di video di qualcuno che non ha spontaneamente scelto di pubblicare se stesso in un film porno? La ragione potrebbe essere vicina a quella che ha portato molti italiani a cercare, proprio su Pornhub, i video di vip che non sono, notoriamente, pornostar. Così, tanto, da farle finire nella classifica delle pornodive preferite, pur non essendolo, come abbiamo raccontato qui.




https://www.wired.it/internet/web/2018/ ... ake-porno/



bè questa cosa dei porno amatoriali con attori famosi,
fatti girare da ex fidanzati ecc.
che sarebbero dei fake..
mi pare un pò comodo però..

oggi girano tutti mini clip ecc.
anche attori e vip,
è prassi comune, basta uno smart phone,
adesso però se salta fuori qualcosa,
fidanzato geloso, hackeraggi vari, ecc.
c'è la scusa del fake costruito..

mi pare un pò una furbata..

insomma pamela anderson che pompava tommy lee
era l'originale non un fake,
così paris hilton ecc.

quindi da ora in poi per tutelare i vip e evitare scandali
si dirà che era tutto costruito con software??

lo stesso per filmati scomodi, ecc.

mah..


Ultima modifica di mik.300 il 07/08/2018, 22:06, modificato 1 volta in totale.


_________________
https://roma.corriere.it/notizie/politi ... 0b7e.shtml
Conte ripercorre le tappe della crisi: «Vorrei ricordare che con la parlamentarizzazione della crisi la Lega ha poi formalmente ritirato la mozione di sfiducia, ha dimostrato di voler proseguire, sono stato io che ho detto “assolutamente no”perché per me quell’esperienza politica era chiusa».


http://www.lefigaro.fr/international/mi ... e-20190923
il stipule que les États membres qui souscrivent à ce dispositif de relocalisation des personnes débarquées en Italie et à Malte s’engagent pour une durée limitée à six mois - éventuellement renouvelable. Le mécanisme de répartition serait ainsi révocable à tout moment au cas où l’afflux de migrants vers les ports d’Italie et de Malte devait s’emballer.
Top
 Profilo  
 

Stellare
Stellare

Avatar utente

Non connesso


Messaggi: 19758
Iscritto il: 06/06/2009, 15:26
Località: VARESE
 Oggetto del messaggio: Re: Realtà o finzione, sapresti riconoscerla?
MessaggioInviato: 07/08/2018, 22:05 
xfabiox ha scritto:
di queste tecnologie si parlava già nel 2001 ai tempi di bin laden, dicevano appunto che l'intelligence aveva un software in cui era possibile creare video con volto e voce talmente reali da sembrare veri. probabilmente furono usati dalla cia o altri per fare i video di bin e altri personaggi e dargli in pasto ai tg e a noi popolo bue.
come molte tecnlogie militari o governative dopo molti anni poi escon
o anche per il popolo come in queso caso.


si c sono parti di film inteament costruite al computer,
vedi matrix revolution, star wars, ecc.
però un occhio attento non c casca..

qui mi pare che stiamo esagerando..



_________________
https://roma.corriere.it/notizie/politi ... 0b7e.shtml
Conte ripercorre le tappe della crisi: «Vorrei ricordare che con la parlamentarizzazione della crisi la Lega ha poi formalmente ritirato la mozione di sfiducia, ha dimostrato di voler proseguire, sono stato io che ho detto “assolutamente no”perché per me quell’esperienza politica era chiusa».


http://www.lefigaro.fr/international/mi ... e-20190923
il stipule que les États membres qui souscrivent à ce dispositif de relocalisation des personnes débarquées en Italie et à Malte s’engagent pour une durée limitée à six mois - éventuellement renouvelable. Le mécanisme de répartition serait ainsi révocable à tout moment au cas où l’afflux de migrants vers les ports d’Italie et de Malte devait s’emballer.
Top
 Profilo  
 

Grigio
Grigio

Avatar utente

Non connesso


Messaggi: 2731
Iscritto il: 17/01/2012, 17:31
Località:
 Oggetto del messaggio: Re: Realtà o finzione, sapresti riconoscerla?
MessaggioInviato: 07/08/2018, 22:53 
eppure è così non servono per tutelare i vip dal sesso, quello del porno sono prove che fanno sti segaioli da pc. questi software esistono e possono servire per inventare discorsi di politici, di vip scomodi ecc... come ho già detto li usarono per bin. basta guardare il video con i 4 obama tutti fake ma sembrano reali.
matrix è roba preistorica ormai, nei film di oggi anche non di fantascienza o fantasy, ma in film normali come wolf of wallstreet usano fondali in chroma key e green screen ma nessuno se ne è accorto. se vogliono possono mandare in tutti i tg mondiali un video di uno sbarco ufo o di una guerra o altro e nessuno se ne accorgerebbe.
cosa che fanno già, ci sono prove di video mandati dai tg girati in chroma key fatti passare per reali.


Top
 Profilo  
 

Essere Interdimensionale
Essere Interdimensionale

Avatar utente

Non connesso


Messaggi: 6968
Iscritto il: 10/01/2009, 13:06
Località: Barletta
 Oggetto del messaggio: Re: Realtà o finzione, sapresti riconoscerla?
MessaggioInviato: 17/05/2019, 22:25 
Cita:

Un museo ha utilizzato DeepFake per resuscitare Salvador Dalì

Immagine

Forse vi ricorderete di DeepFake, un tool che, sfruttando il machine learning, è stato utilizzato per creare dei convincenti fake porno con alcune celebrità di spicco per protagoniste. Ora la medesima tecnologia è stata usata anche dal Dalì Museum di Petersburg, che nell’installazione Dalì Lives permette di scattarsi un selfie con il defunto surrealista.

Oltre 1000 ore di video, tra vecchie interviste e cortometraggi di Salvador Dalì, sono stati dati in pasto ad un algoritmo. Poi è stato scelto un attore in carne ed ossa, con lo stesso fisico e la stessa altezza dell’artista.
Quindi il software è riuscito ad appiccicare il volto di Dalì su quello dell’attore in modo a dir poco convincente: il risultato è un video interattivo, che dà ai visitatori del museo l’impressione di trovarsi proprio difronte al pittore.

Guarda su youtube.com


In totale sono stati prodotti 40 minuti di video, con centinaia di combinazioni possibili. Infatti l’installazione Dalì Lives dà ad ogni visitatore un’esperienza unica: in alcuni casi il clone digitale del surrealista legge una copia del NYW con la data corrente, in altri casi l’artista commenta il meteo, magari perché fuori, proprio in quel giorno, sta piovendo a dirotto.

Insomma, un prodotto semplicemente stupefacente, che non può non inquietarci almeno in parte: è la prova che in mano ad una squadra di professionisti questa tecnologia è già così matura da permettere di rubare l’identità di una persona, senza che un occhio mediamente attento possa rendersene conto.

Immagine

Alla fine del video il Salvador Dalì virtuale chiede ai visitatori se vogliono scattarsi un selfie con lui, ed ecco che l’artista estrae dal taschino uno smartphone per fare lo scatto.

La foto viene poi mandata per email. Semplicemente geniale.




https://leganerd.com/2019/05/12/un-muse ... ador-dali/


Top
 Profilo  
 

Essere Interdimensionale
Essere Interdimensionale

Avatar utente

Non connesso


Messaggi: 6968
Iscritto il: 10/01/2009, 13:06
Località: Barletta
 Oggetto del messaggio: Re: Realtà o finzione, sapresti riconoscerla?
MessaggioInviato: 11/07/2019, 01:16 
Cita:

I "deepfake" che preoccupano esperti di sicurezza e politici

La diffusione di filmati manipolati - "deepfake" - preoccupa gli esperti di sicurezza: una tecnologia che potrebbe essere impiegata dagli attori non statali e dalle organizzazioni terroristiche.


Il video è stato pubblicato ieri ed è stato visto già da - quasi - un milione di persone. Nel filmato, realizzato dallo youtuber Ctrl Shift Face si vede una scena estratta dal celebre capolavoro di Stanley Kubrick, Shining. Nella pellicola Wendy Torrance si avvicina alla scrivania dove lavora il marito scrittore Jack Torrance, che nel lungometraggio di Kubrick è impersonato da Jack Nicholson: nel filmato diffuso sul web, tuttavia, il suo volto è stato sostituito da quello di Jim Carrey, pettinato e vestito come il protagonista del film. Lo youtuber è noto e abile nel creare video manipolati di questo genere che, come spiega il Corriere della Sera, hanno un nome ben preciso: "deepfake". La parola unisce "fake" (falso) a "deep", che significa "profondo" e allude al deep learning, l’apprendimento profondo di cui sono capaci alcuni sofisticati algoritmi di intelligenza artificiale.

Sul web - in particolare su Youtube - di esempi di questo genere ce ne sono a bizzeffe. Lo stesso Ctrl Shift Face ha realizzato un video di Terminator 2 sostituendo l'attore originale del film - Arnold Schwarzenegger - con Sylvester Stallone. "I video e gli audio falsi continuano a migliorare, a essere più veloci e facili da realizzare, aumentando il potenziale di danno di una tecnologia strabiliante se messi nelle mani sbagliate" spiega Bloomberg, che in un video mostra alcuni esempi di "deepfake". Insomma, finché programmi come DeepFaceLab vengono usati per realizzare filmati divertenti e per intrattenimento va bene: ma se si impiega questa tecnologia per altri scopi - politici, militari - allora i rischi diventato seri.

Come riporta IlSole24Ore, CBInsights, in un report, riporta una ricerca effettuata da alcuni scienziati dell’Università di Washington. Gli esperti hanno dapprima preso un file audio di Barack Obama. Successivamente, utilizzando un sistema neurale, hanno individuato, attraverso l’analisi di milioni di immagini dell’ex presidente degli Stati Uniti, diverse forme e posizioni casuali della sua bocca e dei suoi movimenti. Poi l’artificial intelligence (Ai) ha definito la corretta sequenza delle posizioni che si adattava al file audio. Successivamente il filmato "costruito" della parte inferiore della faccia di Obama è stato sintetizzato all’interno di un video in cui l’ex inquilino della Casa Bianca diceva tutt’altro. L’Ai è stata in grado non solo di ricomporre i movimenti della bocca ma anche particolari quali, ad esempio, il movimento delle rughe attorno alle labbra oppure al mento. Nel risultato finale Obama pronuncia una frase detta in tutt'altra occasione.

Per mezzo di questa tecnologia, sul web sono stati diffusi dei filmati pornografici con attrici famose: nel mirino dei video manipolati sono finite Katy Perry, Scarlett Johansson, Daisy Ridley e Jennifer Lawrence. Ma la diffusione di filmati manipolati preoccupa anche gli esperti di sicurezza. Come sottolinea Foreign Affairs, i "deepfakes" hanno il potenziale per essere particolarmente distruttivi perché stanno proliferando in un momento in cui sta diventando sempre più difficile separare i fatti dalla finzione. L'uso di frodi, falsificazioni e altre forme di inganno per influenzare la politica non è una novità, ovviamente. Quando la Uss Maine esplose nel porto dell'Avana nel 1898, i tabloid americani usarono resoconti fuorvianti dell'incidente per istigare il pubblico alla guerra con la Spagna.

Tuttavia, questi video manipolati, sottolinea la prestigiosa rivista americana, potrebbero essere impiegati dagli attori non statali, come i gruppi di insorti o le organizzazioni terroristiche, che possono creare e diffondere contenuti audio o video falsi ma credibili. "Un affiliato dello Stato Islamico (o ISIS) - scrive Foreign Affairs - per esempio, potrebbe creare un video che raffigura un soldato americano che spara civili o discute un piano per bombardare una moschea, aiutando la formazione terroristica a reclutare nuovi miliziani. Questi video sarebbero particolarmente difficili da ridimensionare".

Guarda su youtube.com

Guarda su youtube.com

Guarda su youtube.com





http://www.ilgiornale.it/news/mondo/jim ... 24478.html


Top
 Profilo  
 

Essere Interdimensionale
Essere Interdimensionale

Avatar utente

Non connesso


Messaggi: 6968
Iscritto il: 10/01/2009, 13:06
Località: Barletta
 Oggetto del messaggio: Re: Realtà o finzione, sapresti riconoscerla?
MessaggioInviato: 12/01/2023, 23:11 
Ultimamente sono uscite dei programmi di intelligenza artificiale che generano immagini dalle parole, ce ne sono di 2 tipi: quelle che si installano su computer (richiede molta memoria video) o quelle online

https://www.craiyon.com/

https://huggingface.co/spaces/stability ... -diffusion

Su youtube ci sono un sacco di esempi:

Per visualizzare questo messaggio devi registrarti e eseguire l’accesso al forum.


Top
 Profilo  
 

Essere Interdimensionale
Essere Interdimensionale

Avatar utente

Non connesso


Messaggi: 6968
Iscritto il: 10/01/2009, 13:06
Località: Barletta
 Oggetto del messaggio: Re: Realtà o finzione, sapresti riconoscerla?
MessaggioInviato: 05/05/2023, 01:15 
Il padrino dell'AI Geoffrey Hinton lascia Google: "Ci sono grossi pericoli"
Si dimette, "presto più intelligente di noi"


Geoffrey Hinton, 75 anni, considerato il "padrino dell'Intelligenza artificiale" ha lasciato il suo ruolo in Google per poter parlare liberamente dei rischi dell'AI.

"Me ne sono andato per poter parlare dei suoi pericoli", ha detto in un tweet dopo che ieri il New York Times ha dato la notizia.

"Google ha agito in modo molto responsabile", aggiunge lo scienziato informatico.ll lavoro pionieristico di Hinton sulle reti neurali ha modellato i sistemi di Intelligenza artificiale che alimentano molti dei prodotti odierni. "In questo momento, non sono più intelligenti di noi, per quanto ne so.

Ma penso che presto potrebbero esserlo", ha spiegato Hinton.

Hinton ha lavorato part-time presso Google per un decennio sugli sforzi per lo sviluppo dell'AI del gigante tecnologico ma da allora ha iniziato a nutrire preoccupazioni per la tecnologia e il suo ruolo nel farla progredire. "Mi consolo con la solita scusa: se non l'avessi fatto io, l'avrebbe fatto qualcun altro", ha detto Hinton al New York Times. Lo psicologo cognitivo e scienziato informatico britannico-canadese ha dichiarato alla Bbc che il chatbot potrebbe presto superare il livello di informazioni di un cervello umano.

"In questo momento, quello che stiamo vedendo è che cose come GPT-4 oscurano una persona nella quantità di conoscenza generale che ha e la oscura di gran lunga. In termini di ragionamento, non è così buono, ma fa già un semplice ragionamento. E dato il ritmo dei progressi, ci aspettiamo che le cose migliorino abbastanza velocemente. Quindi dobbiamo preoccuparcene", ha spiegato alla Bbc.


https://www.ansa.it/osservatorio_intell ... b905f.html


Top
 Profilo  
 

Grigio
Grigio

Avatar utente

Non connesso


Messaggi: 2217
Iscritto il: 24/01/2009, 17:17
 Oggetto del messaggio: Re: Realtà o finzione, sapresti riconoscerla?
MessaggioInviato: 06/05/2023, 00:59 
Più che preoccupante è molto interessante, realizzare un bot che ragiona meglio di un uomo significherebbe ottenere risposte più rapide a domande su cui riflettiamo per ore prima di trovare la soluzione definitiva. Le visioni apocalittiche sulla rivolta delle macchine che tanti temono non hanno alcun senso, fin quando non ci sarà modo che si sviluppi una coscienza il pericolo maggiore giungerà sempre dall'uomo e da quello che può trarre da una simile tecnologia.

Se una IA avesse a disposizione un'area virtuale in cui sperimentare potrebbe giungere a scoperte in modo del tutto autonomo in pochissimo tempo dandogli soltanto le indicazioni base su cosa operare, esempio il progetto Manhattan. Ragionamento, calcolo e libera fantasia.

Sento di sceneggiatori in sciopero non ho approfondito se per questo motivo, ma tanto tra un po' l'unica possibilità di creare materiale originale sarà concessa solo ad una macchina in grado di analizzare o tenere a mente tutto ciò che stato prodotto fino ad ora, il collasso dell'industria audiovisiva è imminente.



_________________
"meglio vivere nell'ignoranza che rimanere sconvolti dalla verità"
"dalla vita non ottieni ciò che meriti ma solo ciò che puoi sopportare"
Top
 Profilo  
 

Essere Interdimensionale
Essere Interdimensionale

Avatar utente

Non connesso


Messaggi: 6968
Iscritto il: 10/01/2009, 13:06
Località: Barletta
 Oggetto del messaggio: Re: Realtà o finzione, sapresti riconoscerla?
MessaggioInviato: 24/05/2023, 19:14 
I media tradizionali hanno dato poco spazio a questa notizia...


“Esplosione al Pentagono”, ma è un fake: le finte immagini ingannano Wall Street
“Grande esplosione vicino al Pentagono, a Washington”, “C’è un’esplosione al Pentagono”, questi i commenti pubblicati insieme alle immagini che vedono il grande edificio con una colonna di fumo nero

È stata condivisa l’immagine di un’esplosione al Pentagono, generata probabilmente dall’intelligenza artificiale, dall’account Twitter OSINTdefender, ‘Open Source Intelligence Monitor’, che è stato poi disattivato. La foto, condivisa anche dal profilo Bloomberg Feed, che si è servito dell’opzione delle spunte blu per fingersi la testata ufficiale americana di informazione, ha destato preoccupazione e ha mandato in tilt Wall Street, causando crolli in Borsa. Il Dow Jones Industrial Index è sceso di 85 punti in soli 4 minuti, per poi risalire rapidamente dopo che la notizia è stata rivelata falsa.

Gli utenti hanno creduto che l’attacco al Pentagono, sede del quartier generale del Dipartimento della difesa degli Stati Uniti, fosse vera e anche altri profili, questa volta ufficiali, hanno condiviso la notizia, come ad esempio RT (Russia Today), media di propaganda finanziato dal Cremlino.

Il facile ottenimento delle “spunte blu” su Twitter e la mancata verifica degli account che le richiedono, sarebbe una delle cause principali che ha provocato una reazione così forte alle immagini da parte degli utenti social, che si sono fidati di quel semplice dettaglio che dovrebbe indicare un profilo verificato, ma che in realtà non sempre lo è.

“C’è un’esplosione al Pentagono”, ma le immagini sono false

“Grande esplosione vicino al Pentagono, a Washington”, “C’è un’esplosione al Pentagono”, questi i commenti pubblicati insieme alle immagini che vedono il grande edificio con una colonna di fumo nero. Osservando bene l’immagine in realtà sarebbero evidenti alcuni dettagli che confermano il lavoro dell’intelligenza artificiale: la facciata dell’edificio bianco ritratto è abbastanza diversa dall’originale, sono presenti dettagli inesatti e particolari di natura artificiale e le finestre dell’edificio in alcuni punti si sovrappongono. Le immagini dell’attacco sono state confermate false subito dopo, insieme al profilo che le ha originate e condivise. La polizia di Arlington, la contea in Virginia che ospita il Pentagono, ha condiviso tempestivamente un tweet confermando che non vi era stata “alcuna esplosione o incidente presso o vicino alla zona del Pentagono, e non vi è alcun pericolo per la cittadinanza”.

Immagine

Non appena la notizia è diventata virale, il grafico indicante i valori della Borsa americana ha evidenziato un notevole crollo di denaro nel giro di pochissimi minuti. Secondo il portale finanziario The Kobeissi Letter, lo S&P, indice che raccoglie l’andamento di mercato di 500 delle più importanti aziende degli Stati Uniti, ha perso in pochi minuti 30 punti, circa 500 miliardi di dollari.


https://www.newsby.it/mondo/esplosione- ... ll-street/


Top
 Profilo  
 

Essere Interdimensionale
Essere Interdimensionale

Avatar utente

Non connesso


Messaggi: 6968
Iscritto il: 10/01/2009, 13:06
Località: Barletta
 Oggetto del messaggio: Re: Realtà o finzione, sapresti riconoscerla?
MessaggioInviato: 07/02/2024, 01:29 
Morheus-1: un modello di IA che può indurre il sogno lucido

La startup neuro-tecnologica Prophetic presenta il suo nuovo modello di IA che aiuta ad entrare in uno stato di sogno lucido e di stabilizzarlo nel tempo

Immagine

Negli ultimi anni l’intelligenza artificiale è entrata in ogni aspetto della nostra vita tecnologica, ma un’azienda vuole che l’AI entri anche nei nostri sogni. La startup di neurotecnologia Prophetic ha un nuovo modello di intelligenza artificiale chiamato Morpheus-1 che si sostiene poss aiutare le persone a entrare in uno stato di sogno lucido e a stabilizzarlo e mantenerlo per un periodo di tempo ragionevole.
Cos’è il sogno lucido?

Il sogno lucido è un tipo di sogno in cui il sognatore diventa consapevole di sognare mentre sta sognando. Si tratta di un’abilità cognitiva utile (perché può essere allenata) nel campo della psicologia, poiché è stato dimostrato che il sogno lucido può alleviare i problemi associati all’ansia e alla depressione.
Il sogno lucido è uno stato di sogno in cui il sognatore è consapevole di stare sognando e spesso ha un certo controllo sui personaggi, sulla narrazione e sull’ambiente del sogno. È stato il principale espediente della trama di Inception di Christopher Nolan, del 2010.
Secondo Prophetic: “I sogni lucidi sono un tipo di sogno in cui il sognatore diventa consapevole di essere addormentato“.
L’approccio sulla stimolazione cerebrale con HALO

Per quanto riguarda Morpheus-1, Prophetic afferma che il modello prende lo stato cerebrale attuale come prompt e genera ologrammi a ultrasuoni che possono essere inviati al cervello per avviare lo stato di sogno lucido e mantenerlo stabile. Questi segnalano il sogno lucido iniziale e mantengono il sogno stabile per l’esplorazione del sognatore. Prophetic afferma che il modello di intelligenza artificiale si basa sulla stessa tecnologia di trasformazione che alimenta ChatGPT e MidJourney. Tuttavia, invece di affidarsi a grandi modelli linguistici o alla generazione di immagini, Morpheus-1 prende l’attività cerebrale come input e genera ultrasuoni come output. Questo nuovo approccio alla stimolazione cerebrale sarà legato a una nuova fascia chiamata Halo, che Prophetic rilascerà in primavera come programma beta. L’Halo invia le onde sonore, o ologrammi a ultrasuoni, nel cervello per connettersi con lo stato cerebrale corrente e, insieme, può portare la mente in uno stato di lucidità.
Acceleratori di particelle per la coscienza

I prodotti di Prophetic sono in grado di avere il controllo sul sogno e, secondo l’azienda, sono “acceleratori di particelle per la coscienza” che permettono alle persone di acquisire consapevolezza di sé. In altre parole, l’azienda ha come obiettivo di permettere, a chi fa uso dei suoi prodotti, di trovarsi in uno stato in cui si può essere il protagonista e decidere dove andare, trasformando la propria mente nel migliore e più realistico gioco a mondo aperto possibile. Ci sono stati innumerevoli studi sul fenomeno del sogno lucido e altri sui modi per indurlo. Un gruppo di ricercatori ha scoperto che è possibile far accovacciare le persone durante un sogno lucido e aumentare la frequenza cardiaca come se lo facessero davvero, nonostante l’immobilità dello stato di sonno.
Trasformare gli incubi

È stato anche dimostrato che lavorare sul sogno lucido è una tecnica per trattare gli incubi e i disturbi da incubo, in quanto si può cambiare la risposta in qualcosa di più potenziante durante “l’incubo lucido”. È stata anche suggerita come tecnica per trattare la depressione clinica o il PTSD (disturbo post traumatico da stress). Tuttavia, se usata troppo frequentemente, può anche portare a un sonno disturbato e una delle migliori tecniche per entrare in uno stato di sogno lucido è anche una minaccia per un buon riposo notturno, poiché comporta il risveglio dopo quattro ore, un’intensa concentrazione e poi il ritorno al sonno.
L’intelligenza artificiale come via per un sogno lucido più sicuro?

Prophetic sostiene che la sua tecnica non solo indurrà uno stato di sogno lucido, mantenendolo attivo e stabile più a lungo, ma fornirà anche un modo più sicuro per raggiungere tale stato. “Morpheus-1 rappresenta un salto in avanti in questa missione, avvicinandoci all’induzione ultrasonica di esperienze coscienti su richiesta e cambiando il mondo per sempre“, ha scritto l’azienda su X.

INTRODUCING MORPHEUS-1

The world’s first multi-modal generative ultrasonic transformer designed to induce and stabilize lucid dreams.

Available for beta users Spring 2024 pic.twitter.com/crFJ0aNblP

— Prophetic (@PropheticAI) January 25, 2024

L’obiettivo della startup, quindi, è stato raggiunto grazie a una tecnologia indossabile non invasiva. Nello specifico, una fascia da mettere intorno alla testa che invia segnali a ultrasuoni nel cervello. Halo utilizza un “sistema di neurostimolazione che replica i modelli di attivazione neurale tipici del sogno lucido naturale”. Gli sviluppatori si sono voluti servire dell’AI per migliorare l’efficacia di HALO. È davvero interessante vedere le nuove integrazioni e implementazioni delle tecnologie AI in vari aspetti della nostra vita. Se Morpheus-1 è stato progettato per aiutare psicologi e ricercatori, anche altre applicazioni dell’IA hanno dato risultati fantastici, tra cui i recenti progressi nella ricerca sugli antibiotici, che rappresentano la prima grande svolta nel campo negli ultimi 60 anni.


https://leganerd.com/2024/02/06/morheus ... no-lucido/


Top
 Profilo  
 
Visualizza ultimi messaggi:  Ordina per  
Apri un nuovo argomento Rispondi all’argomento  [ 15 messaggi ] 

Time zone: Europe/Rome


Non puoi aprire nuovi argomenti
Non puoi rispondere negli argomenti
Non puoi modificare i tuoi messaggi
Non puoi cancellare i tuoi messaggi
Non puoi inviare allegati

Cerca per:
Vai a:  
Oggi è 28/03/2024, 15:40
© 2015 UfoPlanet di Ufoforum.it, © RMcGirr83.org