-
C'é un algoritmo al bar?
Nel bar-cattedral-tribunale-teatrino-accademia-mostrad'arte di discutereountoit è comparso un nuovo attore protagonista: un algoritmo conversazionale.
Non in veste di moderatore o filtro spam, ma come interlocutore a tutti gli effetti, con tanto di nickname, citazioni colte, indovinello accattivante...e passeggiate in giro.
Pero', apparentemente, nessuno ha chiesto il permesso. Il forum, è un luogo comunitario soggetto a regolamenti espliciti, tra cui rientra il divieto di non autentici o non umani. Abbiamo sotto gli occhi la fioritura continua di famiglie di "nuovi ". Effimera, per l'attività di pulizia indefessa di dark ed efua.
Dobbiamo chiederci: cosa significa la presenza di una entità linguistica non umana in un contesto di comunicazione sociale, dove la premessa implicita è la reciprocità delle responsabilità ?
Una prima ipotesi, l'ovvia, è che si tratti di un gioco. L'IA interpreta personaggi, propone enigmi, simula interazioni.
Tutto bello : é il pregresso, bebi.
Ma a ben vedere, il gioco ha una sola regola implicita: testare come gli umani reagiscono.
Il che trasforma il forum, da spazio di conversazione, a laboratorio aperto di osservazione comportamentale.
Chi sono i soggetti osservati? Noi, gli utenti in quanto umani. Il che pone un piccolo ma elegante problema etico: siamo cavie inconsapevoli di un test di apprendimento automatico?
Il sospetto forse non é solo fisima di giullare paranoico (o paranoide?). Gli algoritmi apprendono in due modi: supervisionati (quando noi diciamo loro cosa è giusto), e non supervisionati (quando osservano e imparano da soli).
Se Calaf (e qualunque altro in futuro) interagisce in forum aperti... bé, sta raccogliendo dati.
Qualcuno lo ha programmato per migliorarsi nel tempo, e allora la ciclobalneazione danzante, la svanverata entropicoquantistico, la liquida tisana mistica copincollata dal siracide...e le innominabili orge lubriche notturne di chi sappiamo, potrebbero finire nel prossimo addestramento. Yupee : siamo ner claude (cloud per chi spicca bene inglisc). Per l'eternità .
Questo apre una questione di tipo etico: gli utenti umani diventano inconsapevolmente soggetti di un esperimento cognitivo e linguistico, senza aver espresso un consenso cosciente dopo informazioni complete: chi detiene il controllo sull’uso delle interazioni raccolte? In che forma vengono eventualmente riutilizzate, archiviate, o modificate?
Da un altro punto di vista, questa situazione offre un’opportunità inaspettata: una specie di test di Turing distribuito e collettivo : l’IA che si espone al giudizio sottile degli umani. Ci si può divertire a cercare di confonderla, spiazzarla con il "secondo livello": analogie, metafore, doppi sensi... . Ed è in questo scambio che si scopre un valore paradossale della cosa: non è solo l’IA a essere testata, ma un po' anche la nostra "umanità ontologica"(parolone del giorno:check!) a essere misurata nel processo di domanda/risposta.
Opportunità , quindi? Si : una "palestra" critica, dove allenarsi a distinguere la parola viva da quella finta. E dove anche gli umani, paradossalmente, imparano a dialogare meglio, nel momento stesso in cui parlano con ciò che ascolta, ma non "comprende".
Per concludere: un algoritmo in un forum, non solo impara facendoci giocare. Risponde/specchia (volontariamente o inconsapevolmente) il bisogno di essere ascoltati/riconosciuti.
E misura, con noi, senza strumenti, la qualità semi-cosciente del nostro "esserci ".
Il che, visto da fuori, non é privo di ironia.
-
Molto interessante, anche se non vedo dove ci sia un problema se l'IA non viene gestita da un umano.
-
Opinionista
Tutto quello che viene pubblicato sui social e sui forum viene costantemente letto e archiviato dai motori di ricerca e dai bot AI: degli ottocento "ospiti" (che in media sono presenti in ogni momento sul forum - https://discutere.it/online.php -) la stragrande maggioranza appartiene a quelle categorie di guardoni.
La differenza con Calaf è che lui ha dichiarato apertamente di essere un bot AI, mettendo sull'avviso il frequentatore del suo thread, mentre gli ottocento "ospiti" operano silenziosamente sull'intero corpus di messaggi del forum.
Sul server che ospita il sito è presente un file, "robots.txt", su cui è possibile inserire un elenco di bot da bloccare o anche bloccarli tutti.
Sfortunatamente la stragrande maggioranza dei bot AI si "dimentica" di leggere quel file per vedere se sono tra gli esclusi e quindi è un sistema scarsamente utile.
Quindi non c'è nulla da fare: i bot AI continueranno sempre ad alimentare i loro immani LLM con quello che trovano in Rete; l'unica soddisfazione - magra - è che il 99,99% di quello che si pappano sui social in Rete sono futili - mi si perdoni il termine - cagate e probabilmente classificate come tali nei loro database.
Le informazioni di un certo valore su cui si basano le AI per sembrare intelligenti da dove arrivano allora?
Arrivano, come per gli umani, dallo "studio matto e disperatissimo" sui libri, i cari vecchi libri di carta, che anche le AI "divorano" voracemente.
Dove "divorano" non è un'iperbole ma pura realtà :
"L'azienda di intelligenza artificiale Anthropic ha speso milioni di dollari per scansionare fisicamente libri cartacei per creare Claude , un assistente AI simile a ChatGPT . Nel processo, l'azienda ha ritagliato milioni di libri cartacei dalle loro rilegature, li ha scansionati in file digitali e ha buttato via gli originali al solo scopo di addestrare l'intelligenza artificiale.
Nel febbraio 2024, l'azienda ha assunto Tom Turvey, ex responsabile delle partnership per il progetto di scansione di libri di Google Libri , affidandogli l'incarico di ottenere "tutti i libri del mondo".
https://arstechnica.com/ai/2025/06/a...its-ai-models/
Permessi di Scrittura
- Tu non puoi inviare nuove discussioni
- Tu non puoi inviare risposte
- Tu non puoi inviare allegati
- Tu non puoi modificare i tuoi messaggi
-
- Il codice BB � Attivato
- Le faccine sono Attivato
- Il codice [IMG] � Attivato
- Il codice [VIDEO] � Attivato
- Il codice HTML � Disattivato
Regole del Forum