Согласно анализу, среднестатистический запрос к ChatGPT, использующему последнюю модель GPT-4o, потребляет около 0,3 ватт-часа электроэнергии. Это существенно ниже ранее озвученной оценки в 3 ватт-часа и сопоставимо с энергопотреблением обычных бытовых приборов.
Джошуа Ю, аналитик данных из Epoch AI, проводивший исследование, отметил, что предыдущие оценки были основаны на устаревших данных и предположениях об использовании OpenAI менее эффективных чипов для работы своих моделей. «Энергопотребление ChatGPT действительно не является большой проблемой по сравнению с использованием обычных бытовых приборов, отоплением или охлаждением дома, или вождением автомобиля», – заявил Ю в интервью TechCrunch.
Однако исследователь подчеркнул, что полученная цифра в 0,3 ватт-часа является приближённой, так как OpenAI не публикует детальную информацию, необходимую для точных расчётов. Кроме того, анализ не учитывает дополнительные энергозатраты на такие функции ChatGPT, как генерация изображений или обработка длинных входных данных.
Иллюстрация: нейросеть DALL-E
Несмотря на текущие низкие показатели энергопотребления, Джошуа Ю ожидает, что базовое энергопотребление ChatGPT будет расти. Это связано с тем, что искусственный интеллект становится более продвинутым, его обучение требует больше энергии, а использование становится более интенсивным и охватывает более сложные задачи.
В последние месяцы наблюдаются значительные прорывы в эффективности ИИ, а масштабы его развёртывания, как ожидается, приведут к огромному расширению инфраструктуры, требующей большого количества энергии. Согласно отчёту Rand, в ближайшие два года центрам обработки данных ИИ может потребоваться почти вся мощность электроэнергии Калифорнии за 2022 год (68 ГВт). К 2030 году обучение передовой модели может потребовать выработки энергии, эквивалентной мощности восьми ядерных реакторов (8 ГВт).
ChatGPT постоянно растущее число пользователей, что делает его серверные потребности масштабными. OpenAI вместе с несколькими инвестиционными партнёрами планирует потратить миллиарды долларов на новые проекты центров обработки данных ИИ в ближайшие годы.
Внимание OpenAI, как и всей индустрии ИИ, также смещается в сторону моделей рассуждения, которые обычно более способны с точки зрения выполняемых задач, но требуют больше вычислительных мощностей для работы. В отличие от моделей типа GPT-4o, которые отвечают на запросы практически мгновенно, модели рассуждения «думают» от нескольких секунд до минут перед ответом, что требует больше вычислений и, следовательно, энергии.
OpenAI начала выпускать более энергоэффективные модели рассуждения, такие как o3-mini. Однако маловероятно, что повышение эффективности компенсирует возросшие энергетические потребности, связанные с процессом «мышления» моделей рассуждения и растущим использованием ИИ во всём мире.
Присоединяйтесь к ОК, чтобы подписаться на группу и комментировать публикации.
Нет комментариев