„Въздействието върху околната среда от инструкциите, които даваме на изкуствен интелект увеличава потреблението на енергия и въглеродните емисии“, отбелязва проучване.
Докато известните „подкани“ или инструкции, които даваме на изкуствен интелект като ChatGPT или DeepSeek, определят крайния резултат, те имат и друго вторично въздействие.
За генериране на отговори, моделът използва токени, т.е. думи или фрагменти от думи, които се преобразуват в низ от числа, които LLM (модели на големи езици) могат да обработват.
Това преобразуване, както и други изчислителни процеси, произвежда емисии на CO₂. Много потребители обаче не са наясно със значителния въглероден отпечатък, свързан с тези технологии. Сега екип от немски учени, ръководен от Максимилиан Даунер, измери и сравни емисиите на CO₂ от различни вече обучени LLM, използвайки набор от стандартизирани въпроси. Резултатите са публикувани във Frontiers in Communications.
Въздействието върху околната среда от задаването на въпроси на обучени LLM-и е силно определено от техния подход към разсъждение, тъй като процесите на експлицитно разсъждение значително увеличават потреблението на енергия и въглеродните емисии, обяснява Даунър. Установихме, че моделите, базирани на разсъждение, генерират до 50 пъти повече емисии на CO₂ от моделите с кратки отговори. Екипът на Даунър оцени 14 LLM модела с между 7 милиарда и 72 милиарда параметъра върху 1000 сравнителни въпроса по различни предмети. Параметрите определят как LLM-ите учат и обработват информация. Моделите за разсъждение генерират средно 543,5 токена за „мислене“ на въпрос, докато кратките модели изискват само 37,7 токена на въпрос.
Токените за мислене са допълнителни токени, които LLM-ите за разсъждение генерират, преди да дадат отговор. По-големият отпечатък на токените винаги означава по-високи емисии на CO₂. Това обаче не означава непременно, че получените отговори са по-правилни, тъй като сложността на детайлите не винаги е от съществено значение за коректността.
Най-точният модел е базираният на разсъждения модел Cogito, със 70 милиарда параметъра, който постига точност от 84,9%. Моделът произвежда три пъти повече емисии на CO₂ от модели с подобен размер, които генерират кратки отговори.
„В момента виждаме ясен компромис между точността и устойчивостта, присъщи на LLM технологиите“, добавя Даунър. „Нито един от моделите, които поддържаха емисиите под 500 грама CO₂ еквивалент, не постигна точност над 80% при правилен отговор на всичките 1000 въпроса.
CO₂ еквивалентът е единицата, използвана за измерване на въздействието върху климата на различни парникови газове.“ Темата също така доведе до значително различни нива на емисии на CO₂. Въпроси, които изискваха продължителни процеси на разсъждение, например абстрактна алгебра или философия, генерираха емисии до шест пъти по-високи от тези в по-прости предмети, като например история в гимназията.
Проучването отбелязва, че целта е да се помогне на потребителите да вземат по-информирани решения относно собственото си използване на ИИ. „Възможно е значително да се намалят емисиите, като се насърчи ИИ да генерира кратки отговори или като се ограничи използването на високопроизводителни модели до задачи, които наистина го изискват“, казва Даунър. Изборът на модел, може да окаже съществено влияние върху емисиите на CO₂. Например, ако DeepSeek R1 (70 милиарда параметъра) отговори на 600 000 въпроса, той би генерирал емисии на CO₂, еквивалентни на двупосочен полет от Лондон до Ню Йорк. От друга страна, Qwen 2.5 (72 милиарда параметъра) може да отговори на повече от три пъти повече въпроси (приблизително 1,9 милиона) с подобни нива на точност, генерирайки същите емисии.
В проучването се посочва, че резултатите му могат да бъдат повлияни от избора на използван хардуер, фактор на емисиите, който може да варира регионално в зависимост от комбинациите на местната електропреносна мрежа и изследваните модели. Тези фактори биха могли да ограничат обобщаемостта на резултатите.
„Ако потребителите знаят точната цена на CO₂ от генерираните от изкуствен интелект резултати, те биха могли да бъдат по-селективни и внимателни кога и как използват тези технологии“, заключава Даунър.
Източник: La Razón