
25/08/2025
Największą barierą w skalowaniu AI nie jest technologia, ale energia, której zaczyna brakować
Raport Deloitte z lipca 2025 pokazuje skalę wyzwania: zapotrzebowanie na energię w centrach danych AI w USA wzrośnie z 4 GW do 123 GW w ciągu dekady. Ponad trzydziestokrotny skok. Do 2035 r. aż 70% energii zużywanej w data centers ma przypadać na AI.
To nie jest tylko amerykański problem. To trend globalny. I dotyczy również Polski, bo bez względu na to, czy AI działa w centrach danych w USA, w izolowanych środowiskach chmurowych w Europie, czy na serwerach lokalnych, koszt energii zawsze ostatecznie wraca do przedsiębiorcy.
Każde zapytanie do modelu, każdy proces automatyzowany przez AI, oznacza realne zużycie prądu. Jeśli ceny energii będą rosły szybciej niż efektywność infrastruktury, skalowanie rozwiązań stanie się piorunująco drogie. Na najbardziej zaawansowane modele i usługi będą mogły pozwolić sobie głównie firmy z dużym kapitałem. Dostawcy będą więc musieli rozwijać rozwiązania bardziej energooszczędne i to one staną się popularniejsze wśród mniejszych przedsiębiorstw. Oczywiście z czasem technologia zacznie się zmieniać i optymalizować, ale bariera wejścia pozostanie wysoka.
A teraz spójrzmy na Polskę... Myślimy o gospodarce AI, a jednocześnie pożyczamy prąd z Ukrainy i nadal w dużej mierze opieramy się na węglu. Chcemy dołączyć do krajów rozwijających sztuczną inteligencję, a nie potrafimy zaspokoić podstawowych potrzeb energetycznych.
To brzmi jak utopia.