Aristotele, la NASA e il concetto di «input-output»

fluid-img

C’è una sorta di leggenda metropolitana (con margini di veridicità labili) che riguarda la NASA: a quanto pare, per poter diventare un astronauta, dopo gli innumerevoli studi e tanti anni di specializzazione, bisogna risolvere entro 20 secondi un problema logico. Solo e soltanto chi sarà in grado di risolvere l’indovinello-logico nel tempo preposto potrà davvero diventare un astronauta.

Si indichi la lettera per continuare correttamente la data sequenza:

U – D – T – Q – C – S – S – O – N – D – U – D – T – Q – Q – S – D – D – D – V – V …

Per la maggior parte delle persone questo rompicapo è davvero difficile da risolvere in soli 20 secondi. Verrebbe da dire: «Ci vorrebbe un’Intelligenza Artificiale per farlo!».

Eppure, no: un’Intelligenza Artificiale non potrebbe risolvere questa sequenza se, prima, non viene risolta da un umano che la indirizzerà a comprendere il problema.

Questo passaggio è spesso sorvolato, quando si parla di IA: una macchina non può «risolvere» tutto se nella mente di chi la progetta non c’è quantomeno uno schema, un’idea.

È proprio come la vecchia diatriba tra Platone e Aristotele: Platone diceva che le idee esistono prima delle cose, Aristotele diceva il contrario. Per capirci: Platone diceva che noi sappiamo cos’è un «cane» perché esiste al di sopra di noi (nell’Iperuranioun’idea di «canità». Aristotele invece diceva che se noi non vediamo effettivamente un «cane» non potremo mai avere una «idea di cane».

Ecco, le Intelligenze Artificiali esistono… aristotelicamente: se noi non diamo loro un’idea (l’input), loro non potranno generare un bel niente (l’output).

Proprio come per l’indovinello della NASA: se noi non conosciamo il processo mentale che potrebbe portare alla soluzione (l’input)… la macchina non potrà darci la soluzione (l’output).

L’inquietudine attorno alla presunta forza follemente robotica che si potrebbe generare dalle Intelligenze Artificiali è un po’ infondata per questo motivo: siamo noi «Intelligenze Naturali» a dover fornire le idee alle Intelligenze Artificiali; non esiste alcun “Iperuranio delle IA” che emana idee alle macchine permettendo loro di avere a che fare con il concetto di «soluzione» o «problema»… o «canità».

Un’Intelligenza Artificiale non è certamente passiva: ascolta e accoglie le nostre comunicazioni; si evolve in base alle nostre indicazioni; partecipa a un vero e proprio dialogo… ma il dialogo non è mai innato, non può mai partire dal nulla se non dalla volontà (e dalla responsabilità) umana.

Capire dunque il concetto di «input e output» è fondamentale per avere una visione nitida sulla vera natura del dialogo tra Intelligenze Naturali e Intelligenze Artificiali: sulla vera posizione che l’uomo assume in questo emisfero conoscitivo che è misterioso solo all’apparenza.

Ah, comunque, la soluzione del presunto indovinello della NASA… è molto stupida: la sequenza continua con la lettera «V». Perché quelle lettere non sono altro che le iniziali dei numeri: quella è una banalissima sequenza di numeri, indicati soltanto con le iniziali alfabetiche, che da «Uno» arrivano a «Ventuno»… e la sequenza dunque continua con «Ventidue».

Come potrebbe un’IA risolvere problemi simili?

Beh, con l’impegno umano: costruendo al suo interno un’adeguata «Rete neurale». Ed è quello di cui parleremo nel prossimo articolo.