L’algoretica racchiude i principi etici che dovrebbero riguardare l’intelligenza artificiale, descritti nel “Rome Call for AI Ethics” il documento approvato da 16 leader mondiali il 10 Luglio ad Hiroshima.
Questo documento, promosso dalla Pontificia Accademia per la Vita, stabilisce i principi etici che dovrebbero guidare l’intelligenza artificiale (IA) nel prossimo futuro.
Necessità e Valori dell’Algoretica
La “Rome Call for AI Ethics” rappresenta un traguardo significativo, unendo diverse fedi religiose e definendo criteri minimi per un’etica dell’intelligenza artificiale.
Ma quali valori sono essenziali e perché ne abbiamo bisogno?
Il dibattito sull’etica nell’intelligenza artificiale risale alle prime applicazioni tecnologiche degli anni ’60. All’epoca, ci si interrogava se l’IA sarebbe diventata “forte”, capace di simulare l’intelligenza umana, o se sarebbe rimasta “debole”, inferiore alle capacità umane.

Con lo sviluppo di algoritmi sempre più sofisticati, che influenzano decisioni in ambiti come finanza, giustizia e relazioni personali, i rischi sono aumentati. Un’IA senza regole potrebbe prendere decisioni distorte, violare la privacy e condizionare comportamenti umani.
Ecco quindi la necessità di una “etica degli algoritmi” o “algoretica”.
Coniato da Padre Paolo Benanti, consigliere di Papa Francesco per l’IA, il termine si riferisce allo studio e all’applicazione di principi etici nella progettazione, implementazione e uso degli algoritmi, prevenendo l’algocrazia, ovvero il predominio degli algoritmi sulla società.
Rome Call for AI Ethics: Principi Fondamentali
La “Rome Call for AI Ethics” propone principi algoretici per salvaguardare la dignità e l’integrità dell’individuo, escludere le logiche del profitto e rimettere l’uomo al centro dello sviluppo dell’IA.
Questo approccio “etico” è largamente condiviso sia da entità laiche che religiose, presentandosi come universalistico.
I principi etici chiave delineati nella Carta includono:
- Trasparenza: l’IA deve essere comprensibile per tutti.
- Inclusione: non discriminazione.
- Responsabilità: rispetto per le azioni della macchina.
- Imparzialità: l’IA non deve influenzare il giudizio umano.
- Affidabilità e Sicurezza e privacy: garantire la sfera individuale.
Anche l’AI-Act europeo tenta di assicurare uno sviluppo etico dell’IA, basandosi sui valori europei della Carta dei diritti fondamentali. Recentemente, al G7 si è discusso di soluzioni condivise a livello internazionale per uno sviluppo etico dell’IA.

A cosa ci serve un’algoretica?
Paolo Benanti paragona l’algoretica a un guardrail essenziale per evitare che una macchina algoritmica vada fuori strada, soprattutto quando è indipendente dall’uomo.
Quindi l’algoretica stabilisce limiti per progettisti, sviluppatori e utilizzatori di IA, prevenendo l’abdicazione della coscienza critica umana in favore delle macchine.
È quindi fondamentale che tutti assumano la propria responsabilità etica nell’uso dei sistemi di IA.
Serve una formazione efficace e una visione universalistica che infonda un’etica umana nell’algoritmica, limitando i danni e massimizzando i benefici, garantendo il rispetto dei diritti fondamentali della persona.