Time zone: Europe/Rome [ ora legale ]




Apri un nuovo argomento Rispondi all’argomento  [ 1 messaggio ] 
Autore Messaggio

Marziano
Marziano

Avatar utente

Non connesso


Messaggi: 1892
Iscritto il: 15/09/2014, 21:42
Località: E paes tira gardeli
 Oggetto del messaggio: Intelligenza Artificiale più pericolosa della Corea del Nord
MessaggioInviato: 17/08/2017, 17:33 
https://www.tomshw.it/intelligenza-arti ... nord-87628

Immagine


"Se non siete preoccupati dall'Intelligenza Artificiale, dovreste esserlo. È un rischio molto più grande della Corea del Nord".
A dirlo è Elon Musk, fondatore e AD di Tesla e SpaceX.
Un semplice Tweet accompagnato da un'immagine, con il quale Musk ha voluto riprendere un tema molto sentito in questi giorni e riportarlo a uno degli argomenti che gli sono più cari.

È innegabile infatti che negli ultimi giorni nel mondo c'è un rinnovato timore per uno scontro nucleare, di cui certamente di è parlato anche nelle riunioni familiari e tra amici di Ferragosto. Molti di noi temono che sia un pericolo reale, che Donald Trump e Kim Jong-un finiscano davvero per usare armi nucleari.


Sarebbe una catastrofe planetaria, è proprio per questo l'affermazione di Musk risulta altrettanto forte. Come si può pensare che l'intelligenza artificiale possa rappresentare una minaccia ancora più grande? La domanda è la porta per un dibattito complesso, che richiede una buona preparazione su tutti i fronti. E sono ben poche le persone al mondo che possono dirsi esperte di AI, di politica internazionale e di armamenti nucleari.

Immagine


Se la minaccia nucleare è qualcosa di comprensibile a tutti o quasi, tuttavia, è forse opportuno ricordare qual è la minaccia ipotizzata da Musk. Si tratta del rischio esistenziale legato allo sviluppo di macchine pensanti, vale a dire che provochino l'estinzione del genere umano.

Oggi abbiamo Intelligenze Artificiali definite come Narrow AI: algoritmi molto evoluti che possono imparare e automigliorarsi, ma fanno una cosa sola. Le conoscenze acquisite non si possono riciclare da una macchina all'altra - non completamente almeno. Per ogni nuova attività, bisogna dunque ricominciare - i lettori esperti vorranno perdonare la sintesi estrema.

L'obiettivo verso cui ci stiamo muovendo è invece a General AI, vale a dire un'intelligenza artificiale in grado di svolgere più compiti diversi in modo simile alla mente umana. Le stiamo sviluppando usando le macchine stesse, vale a dire AI progettate per creare altre AI. Sarà poi il momento del livello umano - Human Level AI - e successivamente della Superintelligenza, che alcuni amano chiamare singolarità.

Immagine


Il problema è che anche un piccolo errore di programmazione potrebbe avere conseguenze drammatiche, fino all'estinzione del genere umano. Vogliamo creare una macchina dal potere infinito, praticamente una divinità, e dobbiamo dunque essere assolutamente certi che non ci farà del male né volontariamente né perché qualcuno ha sbagliato a programmarla.

Può sembrare una cosa da poco ma non lo è affatto. I maggiori esperti di AI del mondo sono divisi su questo tema e sono pochi quelli certi che l'AI sarà esclusivamente positiva. Musk stesso ha fondato OpenAI con l'esplicito obiettivo di sviluppare un'AI sicura. E ancora nel 2013 disse di aver investito in DeepMind (Alphabet, all'epoca Google) perché preoccupato da "scenari alla Terminator".



_________________
Per ogni problema complesso c' è sempre una soluzione semplice.
Ed è sbagliata.
(George Bernard Shaw)
Top
 Profilo  
 
Visualizza ultimi messaggi:  Ordina per  
Apri un nuovo argomento Rispondi all’argomento  [ 1 messaggio ] 

Time zone: Europe/Rome [ ora legale ]


Non puoi aprire nuovi argomenti
Non puoi rispondere negli argomenti
Non puoi modificare i tuoi messaggi
Non puoi cancellare i tuoi messaggi
Non puoi inviare allegati

Cerca per:
Vai a:  
Oggi è 16/04/2024, 19:20
© 2015 UfoPlanet di Ufoforum.it, © RMcGirr83.org