30/12/2020, 16:20
Robiwankenobi ha scritto:
Comunque è spettacolare quello che sono riusciti a fare!!
30/12/2020, 17:10
Xanax ha scritto:Robiwankenobi ha scritto:
Comunque è spettacolare quello che sono riusciti a fare!!
Da informatico che vede nella fantascienza un monito: congratularsi e poi buttare tutto nel tritarifiuti.
Viviamo in un periodo dove la piramide della responsabilità corrisponde a quella del potere: è più piccola più si sale di potere pertanto ci troveremo la prossima quarantena nazionale attuata coi robot.
30/12/2020, 17:39
30/12/2020, 18:41
ho postato nel forum un libro relativo ai funghi ed ai lieviti
30/12/2020, 18:52
mauro ha scritto:ho postato nel forum un libro relativo ai funghi ed ai lieviti
viewtopic.php?f=8&t=20914&p=539474&hilit=libro+funghi#p539474
ciao
mauro
12/01/2021, 14:28
Accesa nei robot la prima scintilla di empatia
Per aiutare l'interazione fra l'uomo e le macchine
Nei robot si è accesa la prima scintilla di empatia: lo dimostra l'esperimento nel quale è stata realizzata una macchina capace di prevedere le azioni di una sua simile semplicemente osservandola. Il risultato, pubblicato sulla rivista Scientific Reports, si deve al gruppo della Columbia University di New York guidato da Hod Lipson. E' il primo segnale di come anche nei robot potrebbe esistere una Teoria della mente, ossia la capacità finora ritenuta esclusiva degli esseri umani di mettersi nei panni degli altri per anticiparne le azioni. Il risultato getta le basi per una comunicazione più efficiente sia fra le macchine, sia fra le macchine e l'uomo.
La possibilità di prevedere azioni future sulla base dell'osservazione "è una capacità in grado di migliorare significativamente la sintonia e il grado di interazione naturale di un robot con un umano, dal momento che la barriera linguistica viene superata nell'esecuzione di compiti nei quali, ad esempio, è necessario un coordinamento o un accordo reciproco" osserva Antonio Frisoli, della Scuola Superiore Sant'Anna di Pisa. Pensando ai futuri robot domestici, aggiunge "possiamo immaginare robot in grado di assecondare le nostre azioni in modo collaborativo ed efficace".
Gli esseri umani imparano da bambini a prevedere le azioni degli altri e questa capacità è alla base del saper vivere e lavorare insieme con successo. Al contrario, i robot, finora non erano riusciti a mettere in atto questo tipo di comunicazione sociale, fino all'esperimento della Columbia University. In quest'ultimo un robot doveva cercare dei cerchi di colore verde e dirigersi verso di essi, ma c'era un problema: a volte il cerchio verde era nascosto da una scatola di cartone rossa e in quel caso il robot o cercava un altro cerchio verde o si bloccava. Nel frattempo un altro robot osservava la scena da una prospettiva che non gli nascondeva alcun cerchio verde e, dopo aver osservato il suo partner per due ore, iniziava ad anticipare l'obiettivo e il percorso dell'altra macchina.
I ricercatori riconoscono che i comportamenti esibiti dal robot sono molto più semplici rispetto a quelli degli esseri umani, tuttavia ritengono che potrebbero costituire una forma primitiva di empatia. Anche secondo Frisoli l'esperimento "ha misurato una forma primitiva di empatia tra due robot, intesa come la capacità da parte di un robot di predire il comportamento di un altro robot in assenza di comunicazione verbale, ma solo attraverso un'analisi visiva del comportamento dell'altro partner".
Se i robot arriveranno ad anticipare quello che pensano gli esseri umani, potranno aprirsi problemi etici importanti. Per esempio, rileva Frisoli, "fino a che punto un robot deve essere in grado di prendere decisioni autonome sulla base di una sua predizione? Può inoltre un robot, nell'anticipare il pensiero dell'uomo, manipolare l'uomo stesso e non essere più il mero esecutore di compiti? Sono tutti aspetti - osserva l'esperto - che meritano una riflessione attenta di tipo roboetico e filosofico".
Fonte: https://www.ansa.it/canale_scienza_tecnica/notizie/tecnologie/2021/01/12/accesa-nei-robot-la-prima-scintilla-di-empatia-_b9e32c98-f77e-4fe9-9098-1dbcc6e98bba.html
19/02/2021, 12:51
Hour One, l’AI che crea un nostro clone digitale parlante e realistico.
Hour One ha sviluppato una tecnologia AI per creare un clone digitale. Sarà possibile realizzare centinaia di video senza più telecamere: ci penserà il nostro avatar virtuale.
Hour One si descrive come una “società di trasformazione video” che vuole sostituire le telecamere con il codice. La sua ultima creazione è la possibilità per chiunque di creare un suo clone completamente digitale che parlare in video.
L’azienda ha lanciato la sua tecnologia di clone digitale in collaborazione con lo YouTuber Taryn Southern . Nel video potete vedere una creazione completamente digitale, nata da un processo basato su AI.Guarda su youtube.com
l video? Facciamolo fare al clone digitale
Hour One prevede che nei prossimi 5-7 anni, il 90% dei contenuti sarà sintetico. Generato utilizzando computer anziché telecamere.
Quando la pandemia ha colpito, la produzione in tutto il mondo si è interrotta. Le persone erano alla ricerca di modi alternativi per creare contenuti ed ero curiosa di sapere cosa si poteva produrre con i video generati dall’intelligenza artificiale. Sperimentare il clone digitale fa riflettere sul futuro dell’identità e della fiducia, e cambierà senza dubbio il futuro della produzione.
Taryn Southern
Per creare il suo clone AI, Southern ha dovuto entrare in uno studio e stare di fronte a uno schermo verde per poter essere ripresa da più angolazioni. Ha pronunciato anche diverse frasi perchè il programma potesse replicare la sua voce. Poche cose: ha letto qualche testo e ha cantato una canzone. L’intero processo ha richiesto solo sette minuti. Ecco un video di backstage.Guarda su youtube.com
Da quel processo è stato possibile creare centinaia di video in pochi minuti, semplicemente inviando testo alla piattaforma. Nessuna telecamera, nessuna ripresa da registrare, nessun audio da montare.
I vantaggi del clone digitale
Hour One sostiene che i vantaggi di avere un clone digitale superano i possibili svantaggi. La società afferma che con questa tecnologia, i creatori di contenuti vedranno una drastica riduzione dei tempi e dei costi di produzione video. Taryn scherza dicendo che ora può creare nuovi video di YouTube “senza che la vera Taryn debba fare la doccia o lasciare il suo letto”. E non ha torto.
Ma c’è di più: qualsiasi clone AI può parlare più lingue, distribuendo facilmente i suoi contenuti a più persone in tutto il mondo.
Che differenza c’è con un deepfake?
È importante distinguere questa tecnologia di clone digitale da un “deepfake“. Il deepfake prende una faccia e la sovrappone a filmati esistenti o appena registrati. Quello che Hour One fa è creare contenuti completamente originali come se fossero pronunciati da una persona reale. Hour One definisce il risultato un “umano digitale fotorealistico”.
Anche se questo processo potrebbe non prestarsi a tutti i tipi di contenuto (come la commedia, ad esempio, che fa molto affidamento sulle prestazioni e sui tempi), Hour One sostiene che potrebbe essere molto efficace per i formati di notizie, per i quali l’attenzione è rivolta alla tempestività e alla qualità di scrittura e reportistica, e altri tipi di contenuti guidati dal relatore.
Nel nostro ambiente di lavoro sempre più virtuale, la tecnologia di Hour One può essere applicata ottimamente anche ad’e-learning, all’e-commerce e alla salute digitale, luoghi in cui un relatore umano è estremamente prezioso
Da un comunicato dell’azienda
La tecnologia del clone digitale, a sentire Hour One, è già disponibile. Sul sito dell’azienda ci sono numerosi esempi. Sebbene l’iterazione iniziale della tecnologia possa sembrare leggermente inferiore a quella reale, è già abbastanza vicina. Non oso pensare ai miglioramenti possibili e alle applicazioni, ad esempio in ambienti di realtà virtuale.
Se avete voglia di avere un clone digitale, Hour One accetta richieste. Andate avanti voi, che a me viene da preoccuparmi.
Fonte: https://www.futuroprossimo.it/2021/02/hour-one-lai-che-crea-un-nostro-clone-digitale-parlante-e-realistico/
Fonte: https://comedonchisciotte.org/hour-one-lai-che-crea-un-nostro-clone-digitale-parlante-e-realistico/
27/02/2021, 14:05
Ecco a voi il robot che raccoglie la frutta h24. Che faranno gli immigrati a bassa qualifica?
Quello che potete vedere nelle immagini e nel video qui allegati è l’ultimo prodotto della Tevel aerobotics, un’azienda israeliana che sta da tempo sviluppando le tecnologie robotiche nel settore agricolo.
Il risultato del progetto, che è stato ampiamente finanziato con decine di milioni di dollari e che conta già potenziali clienti dall’Australia all’Estremo Oriente, è quello di poter fornire una tecnologia utilizzabile praticamente per raccogliere , 24 ore al giorno, la frutta esattamente nel momento in cui viene stabilito che sia matura, senza la partecipazione di forza lavoro umana, se non nelle fasi d’impostazione. Questo Robot ha vinto il premio come Best Field Robot Concept 2020 e prosegue sulla via del “Precision farming”, in cui la AI e la robotica permettono di ridurre al minimo i costi e l’utilizzo di pesticidi con la tecnologia. Ecco un video su come funziona:Guarda su youtube.com
Secondo i suoi realizzatori il Robot, con il sistema di raccolta, sarà noleggiato ai vari produttori nella stagione della raccolta, ma , come è avvenuto per gli altri macchinari, è solo questione di tempo prima che la soluzione sia alla portata delle tasche di tutte le aziende.
Una delle affermazioni classiche dell sinistra ZTL, quella dei vari Gassman etc, è che abbiamo bisogno di immigrati perché altrimenti “Chi raccoglierebbe i nostri pomodori”. La risposta è semplice: le macchine. Anzi il fatto d’incentivare un’immigrazione di persone non qualificate viene a porre le basi di una crisi sociale ed economica colossale: che faremo quando AI e robotica avranno spiazzato i lavori non qualificati? Però Gassman non si pone questa domanda…
Fonte: https://scenarieconomici.it/ecco-a-voi-il-robot-che-raccoglie-la-frutta-h24-che-faranno-gli-immigrati-a-bassa-qualifica/
02/03/2021, 12:42
La polizia di New York usa il robot cane di Boston Dynamics nei bassifondi. Vi sentite più sicuri?
Dopo averne tanto parlato , la AI e la robotica avanzata entrano veramente nel settore della sicurezza di tutti i giorni ed a contatto con le forze di polizia ordinarie e la gente.
Il robot dog, robot cane, della Boston Dynamics è stato attivamente utilizzato dalla polizia di New York per una pattuglia nel Bronx, come potete vedere dal seguente video:Guarda su youtube.com
Con le sue telecamere può essere utile per eesplorare delle zone scure, di piccole dimensioni o pericolose. Il problema è che l’aspetto è inquietante, anche pensando che, in passato, per lanciare una mostra d’arte, alcuni hanno testato un fucile a vernice sulla schiena del cane, ed ha funzionato abbastanza bene, mostrando che il cane robotico può essere usato facilmente con armi.Guarda su youtube.com
Naturalmente Alexandria Ocasio Cortez si è molto arrabbiata per l’uso di del cane Robotico, di nome Spot, per controllare i bassifondi di New York
https://twitter.com/AOC/status/1365021717144420354?ref_src=twsrc%5Etfw%7Ctwcamp%5Etweetembed%7Ctwterm%5E1365023067769098245%7Ctwgr%5E%7Ctwcon%5Es2_&ref_url=https%3A%2F%2Fscenarieconomici.it%2Fla-polizia-di-new-york-usa-il-robot-vcane-di-boston-dynamics-nei-bassifondi-vi-sentite-piu-sicuri%2F
“Qual’è l’ultima volta che avete visto una tecnologia futuribile utilizzata per la scuola, la sanità, le case e in generale per le comunità con pochi servizi come questa”. Effettivamente, una volta tanto, una bella domanda. Però siamo sicuri che vi sentite più tranquilli con un robo-cane da 75 mila dollari attorno a voi
Fonte: https://scenarieconomici.it/la-polizia-di-new-york-usa-il-robot-vcane-di-boston-dynamics-nei-bassifondi-vi-sentite-piu-sicuri/
17/03/2021, 19:21
20/03/2021, 13:14
Intelligenza artificiale crea ologrammi in 3D in tempo reale
Anche su smartphone, utile per realtà virtuale e stampa 3D
Creare ologrammi tridimensionali in tempo reale, perfino sullo smartphone: è quanto consente di fare il nuovo sistema di intelligenza artificiale sviluppato dai ricercatori del Massachusetts Institute of Technology (MIT). Pubblicato sulla rivista Nature, potrebbe rendere più veloce e precisa la stampa 3D, oltre che migliorare i visori di realtà virtuale offrendo immagini più realistiche senza stress per gli occhi o senso di nausea.
Gli ologrammi, infatti, offrono una prospettiva variabile in base alla posizione dello spettatore e permettono all'occhio di focalizzarsi alternativamente su ciò che si trova in primo piano o sullo sfondo. I ricercatori provano da anni a generare ologrammi con il computer, ma il processo è talmente lungo e complesso da richiedere dei supercomputer. Sono stati fatti diversi tentativi per cercare di ottenere risultati simili con macchine meno potenti, ma questo è spesso andato a scapito della qualità delle immagini.
Per superare questa difficoltà, i ricercatori del MIT hanno pensato di sfruttare una rete neurale che mima il modo in cui il cervello umano processa le informazioni visive: l'hanno poi addestrata con oltre 4.000 immagini create al computer (con informazioni su colore e profondità per ogni singolo pixel) insieme ai corrispettivi ologrammi. Studiando questi dati, la rete neurale ha imparato a calcolare il modo migliore per generare gli ologrammi: riesce così a produrli nel giro di pochi millisecondi usando meno di un megabyte di memoria, un'inezia rispetto alle decine e centinaia di gigabyte disponibili sugli ultimi smartphone arrivati in commercio.
Fonte: https://www.ansa.it/sito/notizie/tecnologia/hitech/2021/03/11/intelligenza-artificiale-crea-ologrammi-in-3d-in-tempo-reale_de3f45f1-5f4f-4bfe-b83a-f82f1be9f6b5.html
13/04/2021, 13:20
La Francia arruola e addestra ZooDroidi in scenari di Guerriglia urbana
Il 6 aprile scorso, sul proprio profilo Twitter, la Scuola militare di Saint-Cyr ha pubblicato alcune foto di esercitazioni militari in cui è comparso Spot, il robot a 4 zampe prodotto dalla Boston Dynamics.
L'École de Saint-Cyr, fondata da Napoleone il 1° maggio 1802, forma gli Ufficiali delle Armate di Terra e una parte degli Ufficiali della Gendarmeria. Parliamo di una tra le più prestigiose istituzioni militari europee e mondiali, dalla quale sono usciti Charles de Foucauld, Charles de Gaulle, e persino Philippe Pétain.
Le immagini pubblicate mostrano il robot Spot avanzare – disarmato – in un campo di addestramento a Coëtquidan, in una esercitazione di 80 studenti dell’EMIA (scuola militare inter-armi). Si tratta di studenti che, spiega il Tenente Colonnello Laurent (ouest-france.fr), hanno tutti esperienza operativa e che quindi sono in grado di vedere le potenzialità e i limiti del robot. L’esercitazione ha avuto anche lo scopo di misurare il contributo della robotica in un'azione militare, analizzare il comportamento dei robot terrestri, il loro tempo di esecuzione della missione, la loro aggressività e le loro vulnerabilità. Tre sono stati gli scenari dell’esercitazione: un'azione offensiva con presa di un crocevia, un'azione difensiva di giorno e poi di notte, un'azione di combattimento urbano. Tutte e tre le operazioni sono state eseguite dagli studenti con e senza l’ausilio dei robot.
Spot costa 74 mila dollari, e per adesso è arruolato nelle polizia di Stato del Massachussetts, nei dipartimento di polizia di Honolulu e New York. Ha un’autonomia di 90 minuti.
La polizia di New York ha testato Spot come supporto all’azione degli agenti. Tuttavia, si legge sul NYT, alcuni temono che possa diventare uno strumento di sorveglianza particolarmente aggressivo.
Il 27 febbraio scorso, Spot, immatricolato col nome Digidog, ha partecipato a una vera azione di polizia nel Bronx. La preoccupazione è che Digidog possa essere armato e che possa prendere decisioni in autonomia.
Nonostante i termini e le condizioni di utilizzo di Spot fissate dalla Boston Dynamics ne vietano l’impiego come arma o per attivare qualsiasi arma, ciò che può fare Spot con un’arma lo ha mostrato il Collettivo artistico di Brooklyn MSCHF (leggi: Mischief – dispetto) sul sito https://spotsrampage.com
Con o senza armi, ma senza Intelligenza Artificiale, il cane Spot è solo un’arma passiva all’altezza delle guerre del secolo scorso. E la miserevole performance del Collettivo MSCHF mostra, appunto, cosa può fare un ordigno tele-comandato in un museo - che è ciò che hanno fatto le V-2 su Londra. Ma qui non si tratta di un ordigno tele-comandato - qui siamo oltre la tele-matica, la tele-visione e il tele-comando. Qui siamo all’uso della forza produttiva sociale dei soldati (e dei civili).
La Forza Sociale Combattiva (seguo ciò che dice Marx dell’operaio sociale nel Capitale 1,I,2-33), non costa nulla. La forza sociale combattiva (FSC) del soldato si sviluppa gratuitamente appena i potenziali soldati vengono interconnessi tra di loro in una rete neuronale – tipo un cloud ibrido o un social network o un motore di ricerca.
Siccome la FSC del soldato non costa nulla, perché d’altra parte non viene sviluppata dal sodato in potenza, cioè prima che si connetta a un network, essa si presenta come una forza produttiva posseduta dall’esercito per natura, come una forza produttiva della quale non bisogna rendere conto.
Invece, bisogna renderne conto, in quanto l’Intelligenza Artificiale che governerà un soldato come Spot è Scienza Comportamentale scorporata, fissata in algoritmi e banche dati, diventata una potenza combattiva indipendente da soldati (e civili) in carne e ossa, e costretta ad entrare al servizio dell’esercito – stiamo parlando della forza del Soldato Sociale.
Per quanto i BigData si sforzino di produrre sistemi di calcolo indipendenti dalle persone in carne e ossa, a fondamento delle forze produttive e combattive è ancora l’abilità delle persone che pigiano sui tasti come dannati. Non possono espellerci dal processo. Ci tengano separati e segregati e attaccati ai terminali, e lottano continuamente contro ogni nostro tentativo di insubordinazione.
L’Intelligenza Artificiale, che si nutre, tra le altre cose, di Scienza Comportamentale succhiata attraverso le reti neuronali, fa cadere i limiti che legano una persona ad una funzione particolare. Posso comprare scarpe su Zalando e contemporaneamente fornire un profilo di Comportamento alla Scienza. Non sono io ad usare la Rete, ma, viceversa, è la rete che utilizza me per produrre le Sua Scienza e le Sue Macchine.
Con il Cane Soldato questo capovolgimento viene ad avere una realtà tecnicamente evidente. I comportamenti del CaneDroide sono prodotti a partire dai nostri comportamenti. Sarà ora lo ZooDroide a guidarci e comandarci: gli automi siamo noi. La Scienza Comportamentale, le forze naturali e i profili di comportamento della gente sono incorporati nella Macchina che invera il potere del padrone. In quanto tale, dice Marx, la Macchina automatica ha la stessa consapevolezza e volontà di un capitalista.
Non solo gli algoritmi, dice Panzieri (QR 1,1964), ma anche i metodi, i comportamenti, le tecniche organizzative sono incorporati nel Droide, e si contrappongono alla gente. Tutto ciò è reso possibile, dice, da un Piano di controllo e disciplina. Allo sviluppo della cooperazione – anche involontaria – degli utenti, corrisponde, da parte del Sistema, lo sviluppo di un piano Dispotico.
Fonte: https://www.lantidiplomatico.it/dettnews-la_francia_arruola_e_addestra_zoodroidi_in_scenari_di_guerriglia_urbana/34357_40696/
20/04/2021, 12:56
Tesla senza guidatore investe uccide due persone. Musk interviene e fa peggio
La National Highway Traffic Safety Administration (NHTSA) e il National Transportation Safety Board (NTSB) sono a conoscenza di un incidente mortale in cui una Tesla S c ha ucciso due persone, avvenuto sabato notte in Texas. Entrambe le agenzie stanno inviando investigatori per condurre un’analisi di quanto successo e per capire come un’auto senza guidatore abbia potuto uccidere.
Tutto questo è stato reso noto d un comunicato della NHTSA seguito subito dopo da un tweet del NTSB in cui annunciava le indagini sull’incidente accaduto nei pressi della cittadina di Spring, vicino a Houston.
NTSB ha anche detto che la loro “indagine si concentrerà sul funzionamento del veicolo e sull’incendio post-incidente.”
La scorsa settimana, il CEO di Ford Jim Farley si è scagliato contro Tesla che avrebbe sperimentato la tecnologia della guida senza pilota utilizzando i clienti come delle cavie sulle strade pubbliche, immettendo quindi un prodotto non sufficientemente sviluppato.
Del resto è vero che Tesla stia testando come una Beta , un test, le sue funzioni “Pilota automatico” e “Guida completamente autonoma” sulle strade pubbliche, il che è sconvolgente se pensiamo che avviene in mezzo ad altri guidatori, a pedoni ed al normale traffico.
L’auto ha colpito un albero quando, giunta in un cul de sac, non è riuscita a comprendere ed a gestire la situazione. L’auto ha quindi preso fuoco. Le due persone morte erano una seduta nei posti posteriori, l’altra sul sedile del passeggero anteriormente. Sicuramente al posto di guida non c’era nessuno, anche se per ora gli investigatori non sono stati in grado di comprendere quale funzione di guida autonoma fosse utilizzata.
Elon Musk ha colto l’occasione per intervenire direttamente e mettersi nei guai…
Tweet
Quindi per i dati raccolti da Musk l’Autopilota non era attivato, cosa che rende il tutto ancora più misterioso e inquietante, dato che è stato confermato che nessuno era seduto al posto di guida. Inoltre Musk afferma che le sue affermazioni sono relative ai dati raccolti “Sino ad ora”, e questo sembra una “Excusatio non petita”, oltre a parlare di dati non a disposizione delle forze dell’ordine che non l’hanno presa esattamente bene. Mark Herman, capo della polizia della zona, ha comunicato che emetterà un mandato per ottenere ogni dato nelle mani di Tesla. Insomma era meglio stare zitti…
20/04/2021, 17:16