Обещания ученых звучат оптимистично, но реальность говорит об обратном.
Эйфория вокруг искусственного интеллекта, похоже, идет на спад . И технологические гиганты высказывают все более серьезные опасения относительно “пузыря” в отрасли генеративных технологий.
Как заявил аналитик венчурного фонда Sequoia Дэвид Кан , для оправдания колоссальных инвестиций в инфраструктуру генеративного ИИ, необходимы годовые доходы от программного обеспечения в размере 600 миллиардов долларов. Однако на данный момент компании вроде OpenAI, Microsoft и Palantir зарабатывают лишь около 17 миллиардов. По мнению специалистов из Goldman Sachs, Citadel и Yardeni Associates, печальная история 25-летней давности в скором может повториться.
“Интернет-пузырь” в начале 2000-х годов стал следствием бурного роста цен на акции интернет-компаний, которые сильно отставали от реальных финансовых показателей этих бизнесов. В итоге “пузырь” лопнул, и стоимость акций рухнула, нанеся серьезный ущерб инвесторам.
Аналогичные опасения высказываются сейчас в отношении рынка генеративных систем. Стремительный рост стоимости технологических гигантов, связанных с ИИ, на фоне относительно скромных финансовых показателей, может привести к новому крупному обвалу.
Эксперт Гэри Смит и автор делают акцент на показателе доходов, чтобы продемонстрировать, что нынешний пузырь ИИ намного больше, чем в прошлый раз. Тогда пользователи были готовы платить около 1,5 триллиона долларов (в ценах 2024 года) за интернет-услуги, компьютеры и электронную коммерцию.
Последние финансовые отчеты таких гигантов, как Google, Microsoft, Meta, Apple и Amazon, по-прежнему игнорируют доходы от ПО, а вместо этого акцентируют внимание на росте облачных услуг. Так, Google утверждает, что ИИ пишет четверть его программного обеспечения, но эксперты уверены: в основном это автозаполнение. Хотя многие уже осознали, что эпоха экспериментов с ИИ закончилась, и “теперь им нужно демонстрировать отдачу”.
Дарон Асемоглу из MIT заявил: на совершенствование умных машин тратятся огромные деньги, в то время как Нил Лоуренс из Кембриджского университета раскритиковал “раздутую” риторику политиков Великобритании и Кремниевой долины. Гэри Маркус из Нью-Йоркского университета на протяжении многих лет регулярно критикует умные машины и подробно изложил свои взгляды в только что опубликованной книге “Укрощение Кремниевой долины” .
Однако есть и те, кто свято верит в грядущие прорывы. Согласно опросу 130 аналитиков Bank of America, внедрение ИИ в компаниях переходит от пилотных проектов к промышленному использованию, что может увеличить операционную прибыль S&P на 200 базисных пунктов в ближайшие пять лет. Это эквивалентно годовой экономии в 55 миллиардов долларов. Оптимистичность отчасти подпитывается прогнозом OpenAI о 100 миллиардах долларов выручки в 2029 году.
Такие радужные прогнозы стали одной из главных причин, почему рыночная капитализация “великолепной семерки” (Nvidia, Google, Microsoft, Apple, Amazon, Tesla и Meta) увеличилась почти на 10 триллионов долларов с января 2023 года и может продолжить расти. Ведь институциональные инвесторы (например пенсионные фонды) уделяют большое внимание аналитическим отчетам.
Присуждение Нобелевских премий по физике и химии, успешная посадка сверхтяжелой ракеты SpaceX с помощью “металлических палочек” и недавнее мероприятие Илона Маска также воодушевили общественность. Хотя Нобелевский комитет не упоминал ChatGPT в своем пресс-релизе, многие журналисты связали эти события. The Wall Street Journal использовал успех SpaceX, чтобы раздуть ажиотаж вокруг ИИ в статье под названием “SpaceX и наша продолжающаяся эпоха открытий”.
Когда The Wall Street Journal попросил 11 экспертов дать прогнозы на 2030 год, девять из них высказались крайне оптимистично. Например, Эрик Бретенакс из Gartner предположил, что ИИ-агенты “будут защищать нас от получения электронных писем, звонков, SMS и мгновенных сообщений, которые для нас не очень полезны, а также будут на них автоматически отвечать”.
Однако краткосрочные тенденции разочаровывают. Проблема галлюцинаций в работе больших языковых моделей ИИ обсуждается уже много лет. Престижный журнал Nature недавно опубликовал статью, в которой говорится, что “более крупные языковые модели становятся менее надежными”. Авторы другой работы оспаривают утверждение об улучшении формальных логических способностей ИИ-моделей. Они заключают, что современные LLM не способны на подлинные логические рассуждения; вместо этого они пытаются повторить паттерны из обучающих данных.
В третьей недавней статье из авторитетного журнала Nature говорится о серьезной проблеме “коллапса модели”. Она заключается в том, что по мере вытеснения человеческих данных компьютерно-сгенерированным текстом в интернете, ИИ-модели становятся все более однородными. Необходимые данные, на основе которых могут обучаться генеративные системы, устраняются.
Авторы статьи делают вывод, что “неразборчивое использование сгенерированного моделью контента в обучении приводит к необратимым дефектам в результатах, при которых исчезают важные элементы первоначального набора данных”. Иными словами, алгоритмы теряют разнообразие и способность генерировать оригинальный контент, становясь все более ограниченными.
Похоже, мир движется по весьма интересному, но отнюдь не позитивному пути в отношении будущего искусственного интеллекта.