Σε αντίθεση με μια απλή αναζήτηση στο διαδίκτυο, που επεξεργάζεται αυτόνομα κάθε ερώτημα, τα μεγάλα γλωσσικά μοντέλα όπως το ChatGPT επανεξετάζουν ολόκληρο το ιστορικό της συνομιλίας κάθε φορά που στέλνεται νέο μήνυμα: κάθε λέξη, κάθε πρόταση, κάθε «token». Αυτό σημαίνει ότι όσο μεγαλώνει η συζήτηση, τόσο αυξάνεται και ο υπολογιστικός όγκος και κατ’ επέκταση η κατανάλωση ενέργειας και οι εκπομπές ρύπων.
Πολλαπλασιασμός υπολογισμών, πολλαπλασιασμός ρύπων
Η αρχιτεκτονική των λεγόμενων “transformers”, στην οποία βασίζονται μοντέλα όπως το ChatGPT, απαιτεί εκατομμύρια έως και δισεκατομμύρια υπολογισμούς καθώς η συνομιλία μεγαλώνει. Συγκεκριμένα:
- Μια συνομιλία 1.000 λέξεων απαιτεί περίπου 1 εκατομμύριο υπολογισμούς προσοχής.
- Μια συνομιλία 10.000 λέξεων: 100 εκατομμύρια.
- Μια συνομιλία 100.000 λέξεων: 10 δισεκατομμύρια.
Έρευνα σε 14 μεγάλα μοντέλα τεχνητής νοημοσύνης έδειξε πως όσο πιο πολύπλοκη είναι μια ερώτηση, τόσο περισσότερους ρύπους προκαλεί, έως και 6 φορές περισσότερους σε σχέση με μια απλή ερώτηση. Τα πιο «έξυπνα» μοντέλα χρειάστηκαν έως και 50 φορές περισσότερη ενέργεια για να δώσουν την ίδια απάντηση σε σχέση με απλούστερα συστήματα.
Ο κίνδυνος υπερθέρμανσης των data centers
Έκθεση του Πανεπιστημίου του Κέιμπριτζ προειδοποιεί πως η εκθετική ανάπτυξη της ΤΝ θα μπορούσε να πολλαπλασιάσει επί 25 την ενεργειακή κατανάλωση του τεχνολογικού τομέα έως το 2040. Αυτό θα δημιουργούσε σοβαρές πιέσεις στα ηλεκτρικά δίκτυα και θα υπονόμευε παγκόσμιους στόχους για την κλιματική αλλαγή.
Ήδη, εταιρείες όπως η Google και η Microsoft καταγράφουν εκρηκτική αύξηση στις εκπομπές διοξειδίου του άνθρακα, παρά τις δεσμεύσεις τους για «μηδενικές εκπομπές». Η Google, που ισχυριζόταν πως είναι ουδέτερη ως προς τον άνθρακα από το 2007 μέσω αντισταθμίσεων, παραδέχτηκε στην έκθεση βιωσιμότητας του 2023 ότι δεν διατηρεί πλέον «λειτουργική ουδετερότητα» λόγω της επέκτασης της ΤΝ.
Προς ένα πιο «ρυπογόνο» μέλλον;
Τα κέντρα δεδομένων ευθύνονται σήμερα για περίπου 1,5% των παγκόσμιων εκπομπών. Όμως, μέχρι το 2040, το ποσοστό αυτό θα μπορούσε να φτάσει έως και το 8%, ξεπερνώντας τις συνολικές εκπομπές της παγκόσμιας αεροπορίας. Η Goldman Sachs προβλέπει πως μόνο στις ΗΠΑ, τα data centers θα καταναλώνουν το 8% της συνολικής ηλεκτρικής ενέργειας της χώρας μέχρι το 2030 — από 3% το 2022.
Ωστόσο, όπως καταγγέλλει ο Bhargav Srinivasa Desikan, επικεφαλής συντάκτης της έκθεσης του Cambridge, οι μεγάλες εταιρείες τεχνολογίας αποφεύγουν να δώσουν σαφή στοιχεία για τις ενεργειακές ανάγκες της ΤΝ, αφήνοντας κενό ενημέρωσης και προβληματισμού σε πολιτικούς και ρυθμιστικές αρχές.
Με την τεχνητή νοημοσύνη να εξελίσσεται ταχύτατα και τη ζήτηση για «έξυπνες» λύσεις να αυξάνεται διαρκώς, το ερώτημα που τίθεται είναι αν μπορούμε να μιλάμε για «καινοτομία» χωρίς να λογαριάζουμε τις περιβαλλοντικές της συνέπειες.