Il futuro non sarà dominato dalle macchine, ma da sistemi socio-tecnici. La sfida della società futura non è inventare nuove tecnologie, ma sviluppare una nuova filosofia della responsabilità che sappia gestire l’incertezza intrinseca di un mondo interconnesso.
Possiamo iniziare descrivendo il processo prevedibile (e previsto) dell’impatto della tecnologia sulla società futura. Siamo dunque in una fase descrittiva.
1) Entro la fine di questo decennio, la distinzione tra “online” e “offline” sarà obsoleta. Il fatto tecnologico non è più rappresentato da un dispositivo che teniamo in mano, ma da un’infrastruttura sensoriale (IoT, sensori biometrici, AI generativa) che avvolge lo spazio fisico. L’intelligenza artificiale non si limita più a suggerire contenuti, ma gestisce flussi logistici, diagnosi mediche e protocolli di sicurezza in tempo reale. La realtà diventa ibrida. Gli esterni urbani diventano strati di dati sovrapposti alla pietra e al cemento, dove la visione umana è costantemente assistita da interfacce digitali.
2) Il vero impatto non è ciò che la tecnologia fa, ma come essa agisce da filtro per la nostra percezione. Qui entrano in gioco le sfide epistemologiche più interessanti: la crisi della verità; in un’infosfera satura di contenuti sintetici, il “filtro” diventa un’arma a doppio taglio. Se da un lato l’AI democratizza l’accesso alla conoscenza, dall’altro erode il concetto di prova oggettiva. La verità diventa una questione di probabilità bayesiana (vedi il mio articolo del 2 gennaio scorso). Non cerchiamo più la certezza assoluta, ma il segnale più affidabile in un mare di rumore. Credo, inoltre, che le nostre identità digitali sopravvivono ai nostri corpi (il tema della Digital Estate), e le macchine imparano a imitare i nostri desideri prima ancora che noi li formuliamo.
3) Qual è l’impatto finale sulla società? Il giudizio ricade sulla capacità umana di mantenere il controllo etico sui sistemi complessi. Il divario non sarà solo economico, ma cognitivo. La società si spaccherà tra chi usa gli algoritmi come estensione della propria mente e chi ne è semplicemente usato (subendo decisioni automatizzate senza capire il “perché”). Come nel caso delle tragedie legate alla sicurezza, la tecnologia può creare un’illusione di invulnerabilità. Il giudizio futuro ci impone di non arrenderci alla “mancanza di cervello”: la norma tecnica deve essere supportata da una vigilanza umana costante.
