PS: "Il tuo DeepSeek & ChatGPT Assistente AI ovunque...!":
U. M.
..................................................................................

La cortesia degli utenti costa a ChatGPT milioni di dollari.
Secondo l’amministratore delegato Sam Altman, i “per favore” e i “grazie” sono interazioni superflue che producono costi di elettricità enormi.
“Decine di milioni di dollari ben spesi” specifica il fondatore “non si sa mai”.
Il riferimento della battuta è ad un possibile futuro distopico, controllato dalle macchine e in cui i “gentili” verranno risparmiati.
Ironie a parte, le uscite di Altman hanno riaperto il dibattito sui costi nascosti dell’Intelligenza artificiale.
Un chatbot come quello di OpenAI ha bisogno di enormi datacenter il cui consumo elettrico è spesso superiore a quello di intere nazioni.
È già successo in Irlanda. L’intelligenza artificiale ha registrato quote così alte da superare i consumi di tutte le abitazioni urbane del Paese messe insieme.
L’enorme dispendio elettrico dei datacenter comporta un surriscaldamento dei server e questo, a sua volta, rende necessario l’utilizzo di sistemi di raffreddamento.
È il secondo enorme costo dell’intelligenza artificiale e maggiore preoccupazione ambientale: il consumo d’acqua potabile.
Si pensi che basta fare da 10 a 50 domande a ChatGPT per consumare mezzo litro d’acqua.
Nel momento in cui 100 milioni di utenti pongono una domanda, si stima un consumo da uno a cinque milioni di litri d’acqua. L’equivalente di due piscine olimpioniche che spariscono dal lunedì alla domenica.
Stime ovviamente al ribasso, perché spesso il singolo utente pone più di una domanda al chatbot.
L’Agenzia Internazionale per l’Energia (Aie) conferma che l’impatto dei data center, vista la mancata attività regolatoria, è devastante.----
Nessun commento:
Posta un commento