Imparare e vedere e leggere .... le basi dell'I.A.
Affinché l'intelligenza artificiale realizzi il suo potenziale - per sollevare gli esseri umani da compiti banali, semplificare la vita e infine inventare soluzioni completamente nuove ai nostri problemi - i computer dovranno superarci in due cose che noi umani facciamo abbastanza bene: vedere il mondo intorno a noi e capire la nostra lingua.
Imparare a vedere e imparare a leggere sono le due cose principali di cui hanno bisogno per i computer per acquisire conoscenza. Questi campi sono chiamati visione artificiale ed elaborazione del linguaggio naturale. Questi due campi si sono evoluti in modo indipendente, ma gli ultimi studi li stanno riunendo in modi interessanti.
Negli ultimi anni, i ricercatori di Princeton e oltre hanno fatto passi da gigante in questi due campi, aprendo rapidi progressi in una varietà di applicazioni. Questa enorme trasformazione è avvenuta nell'ultimo decennio
Migliorare la nostra capacità di catturare e analizzare le immagini è una parte essenziale per portare capacità visive umane, o addirittura sovrumane, a macchine come cellulari, robot e dispositivi sanitari.
Alcuni ricercatori stanno sviluppando metodi di intelligenza artificiale per migliorare l'occhio del computer, la fotocamera. Il suo obiettivo è aiutare le fotocamere a evolversi fino al punto in cui le loro capacità visive eguagliano o superano quelle di esseri umani o animali.
All'università di Washington hanno recentemente costruito una fotocamera così piccola da avere all'incirca le dimensioni di un granello di sale. Il dispositivo è costituito da più di un milione di pali cilindrici su scala nanometrica che interagiscono con la luce per produrre un'immagine. La fotocamera combina l'elaborazione delle immagini e il software sullo stesso chip del computer.
Il team ha utilizzato l'intelligenza artificiale per ottimizzare la forma e la posizione e la posizione degli oggetti e per modulare la luce in modo da registrare l'immagine migliore quando si utilizza l'intelligenza artificiale per ricostruire e perfezionare l'immagine risultante. L'approccio del team si basa su un tipo di intelligenza artificiale nota come rete neurale artificiale, modellata sui neuroni e le connessioni del cervello, combinata con un modello della fisica del trasporto della luce. I neuroni nel modello sono in realtà algoritmi informatici chiamati nodi che raccolgono informazioni, eseguono un calcolo e producono un output.
La combinazione di modelli fisici con reti neurali artificiali è un nuovo paradigma per la progettazione di telecamere per cui potremmo essere in grado di utilizzare l'intelligenza artificiale per aprire uno spazio di progettazione completamente diverso dal punto di vista ottico.
L'intelligenza artificiale ci sta anche aiutando a vedere oggetti che non abbiamo mai visto prima, come le singole proteine, i mattoni della vita e talvolta la causa di malattie tra cui l'Alzheimer. Le proteine sono troppo piccole per essere visualizzate in dettaglio, anche con le apparecchiature più potenti. L'intelligenza artificiale potrebbe cambiarlo.
L'intelligenza artificiale non solo ci aiuta a vedere cose nuove, ma ci aiuta anche a comunicare grazie ai miglioramenti nell'elaborazione del linguaggio naturale. Questi sistemi sono alla base della capacità dei computer di tradurre le lingue, convertire il parlato in testo e rispondere alle domande vocali.
Chen sta lavorando allo sviluppo di macchine in grado di accedere alla conoscenza umana attraverso l'interazione con il linguaggio scritto e parlato, e che abbiano la capacità di comprendere, ragionare e prendere decisioni e giudizi con poca o nessuna guida esterna.
"Studio questioni fondamentali come la rappresentazione del testo nelle reti neurali, l'estrazione e la codifica delle informazioni scritte nel testo, il recupero delle informazioni rilevanti e il loro utilizzo per applicazioni a valle, come la risposta alle domande e i sistemi di dialogo", ha detto Chen.
Negli ultimi due o tre anni, il campo dell'elaborazione del linguaggio naturale si è trasformato grazie all'introduzione di modelli linguistici di grandi dimensioni (LLM), che hanno dato il via a una nuova era di interazioni aperte tra uomo e macchina tramite semplici istruzioni in linguaggio naturale. Nonostante l'entusiasmo, questi LLM possono contenere centinaia di miliardi di parametri, il che li rende mille volte più grandi dei modelli precedenti.
L'addestramento di questi modelli ha un costo finanziario e ambientale enorme e per questo è stato limitato solo a poche grandi aziende e a laboratori di ricerca ben finanziati. "Uno dei problemi principali che sto affrontando è come ridimensionare questi modelli e sviluppare soluzioni più efficienti per l'addestramento e l'adattamento di questi modelli molto grandi", ha detto Chen.
Si stanno sviluppando sistemi autonomi in grado di acquisire il linguaggio attraverso le interazioni con l'ambiente circostante. Vuole anche aumentare la capacità dei computer di recepire informazioni testuali e utilizzarle per prendere decisioni.
"La maggior parte degli attuali modelli di elaborazione del linguaggio naturale si concentra sull'apprendimento di rappresentazioni semantiche dal solo testo, ma la comprensione profonda del linguaggio naturale richiede una consapevolezza della situazione e del contesto per consentire a un sistema di intelligenza artificiale di risolvere le ambiguità, evitare i malintesi e fornire risposte appropriate.
Si sviluppano anche nuovi metodi per far sì che i computer imparino attraverso una combinazione di "fare" e "leggere", proprio come fanno gli esseri umani, in contrapposizione alla natura "per tentativi ed errori" dei paradigmi predominanti dell'intelligenza artificiale, come l'apprendimento per rinforzo, un metodo di formazione basato sulla ricompensa dei comportamenti desiderati.
E se le macchine diventassero autocoscienti?
Come risultato di di tali ricerche si è arrivati a risultati clamorosi ... mettendo in linea a disposizione di tutti algoritmi come ChatGPT che sono in grado di svolgere temi che neanche gli insegnati di lettere sono in grado di riconoscere come prodotto di un automa.
Come evidenziato nel mio articolo nella sezione "Debate Square" dove rimando al sito https://www.futuroprossimo.it/2022/1...nto-del-mondo/ il timore che ci troviamo di fronte ad un fenomeno che potrebbe sconvolgere la nostra vita quotidiana ... come fu a suo tempo la rivoluzione industriale ... diventa sempre più probabile.
Un dibattito potrebbe aprirsi a tal proposito ... poiché la suggestione di molti film di fantascienza come "2001 Odissea nello spazio" o "Terminator" potrebbe farci temere che succeda come in per AL9000 o peggio Skynet che le macchine diventino coscienti e prendano addirittura il sopravvento sull'uomo!.
Tecnologia Ai. Non è solo Google ad avere paura della nuova intelligenza artificiale!
Il seguente è un estratto (in corsivo) di un articolo Di Avvenire.it di Paolo Benanti di cui in calce fornirò il link … che a mio parere sarebbe tutto da leggere in quanto fornisce un quadro veramente interessante sullo sviluppo di questa rivoluzionaria maniera di rispondere a ogni nostra richiesta conoscitiva su quasi ogni argomento e come questo nuovo approccio sia completamente innovativo e perturbante per i vecchi sistemi di inquiry!
“Chat Gpt appartiene a una famiglia di intelligenze artificiali basate sul machine learning utilizzando una tecnica di deep learning nota come transformer, che consiste nell’utilizzare una rete neurale per analizzare e comprendere il significato di un testo. Nello specifico, ChatGpt fa parte della famiglia degli InstructGpt, modelli formati tramite deep learning ma poi ottimizzati tramite il rinforzo umano. Il sistema potrebbe rivelarsi come un disastro finanziario per Google in quanto fornisce risposte superiori alle domande che attualmente rivolgiamo al motore di ricerca più potente del mondo. Sebbene ChatGpt abbia ancora ampi margini di miglioramento, il suo rilascio ha portato la direzione di Google a dichiarare un “codice rosso”, più o meno come lanciare l’allarme antincendio. Alcuni ritengono che l’azienda si stia avvicinando al momento temuto dalle più grandi protagoniste della Silicon Valley: l’arrivo di un enorme cambiamento tecnologico che potrebbe sconvolgere la propria attività.
Sundar Pichai, amministratore delegato di Google, ha partecipato a una serie di riunioni per definire la strategia di AI di Google e ha modificato il lavoro di numerosi gruppi all’interno dell’azienda per rispondere alla minaccia rappresentata da ChatGpt, secondo quanto riportato in un memo e in una registrazione audio ottenuti dal New York Times. I dipendenti sono stati anche incaricati di costruire prodotti AI in grado di competere con quelli di OpenAI. Google funziona analizzando miliardi di pagine web, indicizzando i contenuti e classificandoli. Quindi, fornisce all’utente un elenco di link su cui fare clic. ChatGpt offre qualcosa di più allettante: un’unica risposta basata sulla propria ricerca e sulla sintesi di tali informazioni. Insomma, ChatGpt non risponde con una serie di link ma con una risposta stile vecchio Bignami, il libretto di riassunti per la scuola che si usava alle superiori, per salvarsi in vista di una interrogazione.”
L’autore spiega come lui stesso abbia provato ha trovare la soluzione ad una questione di culinaria su come fare un dolce … provando sia le richieste tradizionali che quella usando ChatGPT ed ha scoperto che su 13 casi su 18 la risposta del secondo era più “utile” per risolvere il problema … facendo notare che pur essendo il termine “utile” piuttosto soggettivo ha potuto constare che la risposta di ChatGPT era più chiara ed esauriente mentre Google si limitava a dare una lista di link da cliccare dove non era facile trovare una risposta altrettanto chiara ed esaustiva!
“Questo fa capire la principale minaccia di ChatGpt nei confronti di Google: fornire una risposta unica e immediata che non richiede un’ulteriore scansione di altri siti web. Nel linguaggio della Silicon Valley, questa è un’esperienza “senza attrito”, una sorta di santo graal, perché i consumatori online preferiscono in larga misura servizi rapidi e facili da usare. Google dispone di una propria versione di risposte sintetiche ad alcune ricerche, ma si tratta di compilazioni della pagina web più votata, e in genere brevi. Ha anche un modello linguistico proprietario, chiamato LaMda, talmente valido che uno degli ingegneri dell’azienda ha pensato che il sistema fosse senziente. Anche se Google perfeziona i chatbot, deve affrontare un altro problema: questa tecnologia cannibalizzerebbe i redditizi annunci di ricerca dell’azienda. Se un chatbot risponde alle domande con frasi stringate, le persone hanno meno motivi per cliccare sui link pubblicitari.”
Questi link …. Non sono altro che una collezione di link cliccabili fra i più richiesti ed aprono ad annunci per la maggior parte “pay-per-click” ed alla possibilità di ricerche di mercato ma anche ad utilizzi geopolitici delle notizie come nel caso della propaganda sui vaccini, sulla guerra ed alle temute “fake news”.
Ia parte!
Tecnologia Ai. Non è solo Google ad avere paura della nuova intelligenza artificiale!
IIa parte
Sembra ormai quindi deciso fra i grandi gestori dell'informatica l'importanza dell'AI a tutti i livelli ... cercando di adeguarsi ad una realtà che forse si aspettavano ... ma ha colto forse impreparati alcuni fra questi Big G (Google)!
"ChatGpt non rivela le fonti delle sue informazioni – forse anche i suoi stessi creatori non sanno come genera le risposte che ottiene –, e questa è anche una delle sue più grandi debolezze: a volte, le sue risposte sono semplicemente sbagliate. Non è chiaro quanto siano comuni gli errori di ChatGpt. Una stima che gira su Twitter parla di una percentuale compresa tra il 2% e il 5%. Potrebbe essere di più. Questo renderà gli utenti di Internet diffidenti nell’utilizzare ChatGpt per informazioni importanti. Tuttavia, ChatGpt piace: lanciato il 30 novembre 2022, ha raggiunto un milione di utenti in circa cinque giorni, un traguardo straordinario, mentre a Instagram sono serviti due mesi e mezzo per arrivare a questo numero e a Facebook dieci. Sorge così una questione geopolitica: dietro OpenAI ci sono numerosi finanziatori, e tra questi Musk che con Thiel – come lo è stato Schmidt per Obama – è il braccio IT dei repubblicani Usa. ChatGpt, come Google replacement, può rompere o danneggiare il predominio di Big G. Gli effetti e il potere di questo nuovo Bignami degli anni 20 di questo secolo può farne non solo uno strumento che rispecchia nei risultati il senso comune ma il vero nuovo produttore dell’opinione pubblica."
Quello che viene considerato come una debolezza ... mi sembra invece una specie di miracolo ... già avevo sentito parlare di un programma AI che vinceva a GO, considerato uno dei giochi più difficili da programmare, diversamente dagli scacchi, in quanto anche i grandi campioni di questo gioco non sanno spesso come fanno a vincere ... cioè come si fa a battere un campione senza sapere le regole che egli stesso ha applicato e affidandosi all'"intuizione" ... ecco un aggettivo tutto antropico ... non codificabile ... eppure il programma, fatto secondo la codifica propria dell'IA, batte i campioni, in ultima analisi sembra che agli stessi progettatori dell'IA sfuggano certi meccanismi di autoapprendimento fornendo dei risultati inaspettati!
Avevano insegnato al programma AI a riconoscere un gatto da una lepre ... ma questi ha riconosciuto inaspettatamente un elefante!
Tutto ciò scusate ... fa un po' paura!
"La sfida è lanciata. Troverà l’algoretica uno spazio in questa battaglia? Un tema del quale si è discusso in questi giorni in Vaticano per la firma della «Rome Call for AI Ethics», documento sottoscritto dalle tre religioni abramitiche, curato dalla Fondazione RenAIssance e promosso dalla Pontificia Accademia per la Vita: «Si tratta di vigilare e di operare affinché non attecchisca l’uso discriminatorio di questi strumenti a spese dei più fragili e degli esclusi», ha detto il Papa ai partecipanti all’incontro (tra loro Brad Smith, presidente di Microsoft, e Dario Gil, vicepresidente globale di Ibm), auspicando che «l’algoretica, ossia la riflessione etica sull’uso degli algoritmi, sia sempre più presente, oltre che nel dibattito pubblico, anche nello sviluppo delle soluzioni tecniche»."
https://www.avvenire.it/opinioni/pag...e-google-paura