И здесь начинается правда. Когда изменятся тарифы на пользование ИИ

1 сентября, 17:21

Взгляд с экономической точки зрения

Начнем с интересного факта — никто не знает, что означает GPT. Люди пользуются ежедневно, платят деньги, боятся быть тупее, чем ИИ — но спроси у рядового инвестора, как расшифровывается GPT — и будет пауза. Так я решил помочь, GPT — это Generative Pretrained Transformer (генеративный предварительно обученный трансформер). Первые два слова здесь понятны — а вот третье — совсем нет — поэтому один из следующих текстов сделаю о нем.

Реклама

А сейчас — я, ваш преданный диванный эксперт по инвестициям, недавно понял, что многие до сих пор не в курсе — инвестирование в модели искусственного интеллекта работает совсем не так, как привычная логика стартапов. В классическом сценарии все логично — вложил деньги, модель стала дешевле, юзер платит $20, у тебя растет количество этих юзеров — вау — маржа улетела в космос, все счастливы. Но в AI все наоборот — модель действительно дешевеет, а прибыли нет — даже в самой крупной компании — Open AI. Поэтому сегодня выясним, почему экономика языковых моделей — это не просто отдельный жанр, а отдельная физика с инвесторами, которые сами себе подкладывают токены.

Вот представим ситуацию — сидишь себе на диване, открываешь новый питчдек: «AI, подписка $20, инфраструктура масштабируемая, мы автоматизируем интеллект». Ну ок. А на пятом слайде тебе показывают знакомый график: языковые модели дешевеют в десять раз каждый год. И сразу где-то в голове появляется картинка: сейчас немножко потеряем, а потом маржа будет, как у Facebook.

Каждый запрос к модели тратит внутреннюю «валюту»

Так вот — этот слайд — это такая главная религия современных AI-стартапов: сначала минус, потом минус поменьше, потом раунд, потом — ну что-то придумаем. Но реальность немного другая. Все дешевеет, и дешевле становится то, чего больше никто не хочет и не купит.

GPT-3 упал в цене с $60 за миллион токенов (что это такое, кстати?) до почти ничего. Но вы же не открываете сегодня Internet Explorer? Вот и пользователи тоже не хотят GPT-3. Спрос не на дешевое, а на лучшее. А лучшее стоит как стоило — так и стоит. $30, $45, $60 за миллион токенов — стабильная цена фронтира. Потому что люди хотят себе самый новый и самый умный виртуальный мозг, они не думают вроде — «немного хуже, но выгоднее» — с ИИ так не работает. Все всегда бегут за самым современным продуктом, чтобы не быть тупее, чем другие. Это все равно, что сейчас вместо нового складного смартфона Samsung — купить старый кнопочный Nokia.

Дальше еще интереснее — модели стали не просто лучше — они начали решать более длинные задачи. GPT-3 — это еще просто чатик простых вопросов. GPT-4 — это уже рабочий. GPT-4o — это тот же рабочий, но который сам решил, что именно ему делать, и вместо ответа выдал тебе 40 тысяч токенов описания. Раньше ты спрашивал — «что такое API», и получал ответ на 20 слов. Теперь спрашиваешь — и получишь эссе, план интеграции, 2 варианта архитектуры и объяснение, почему первый популярнее, но хуже.

И тут мы подходим к главному — каждый запрос к модели тратит внутреннюю «валюту», которую никто не видит, но которая там есть. Эта валюта — токены. Они берутся из всего — из вашего вопроса, из ответа, из всех «подумай перед тем как ответить», из того, что модель читает, планирует, переписывает. Раньше запрос-ответ занимали пару сотен токенов, сейчас серьезный запрос стоит около 50 тысяч.

Один такой нормальный запрос сегодня — это уже $0,50- $1 для компании, если не больше. Один. А пользователь хочет не один. Потому что теперь он не читает, а ставит агенту задачу: напиши, проверь, оптимизируй, перепиши, разбей на подзадачи, повтори еще раз. Это даже не юзер. Это диспетчер. И каждый его клик — это еще +5 тысяч токенов. И это очень дорого для компании.

Anthropic запустил безлимитный план за $200. Это, кажется, был самый умный тариф на рынке: динамическое переключение моделей, локальные вычисления, оптимизация под нагрузку. Но и этого не хватило. Люди начали тратить токены с такой скоростью, что пришлось все свернуть. И тут становится понятно — проблема не в цене, а в том, что модель больше не отвечает — она работает. И если она работает — она тратит — и ничего не зарабатывает.

И тут начинается правда. Все понимают, что правильно — это когда платишь за использование, как за воду или электричество (это называется usage-based — то есть за каждый литр — столько-то центов). Но никто этого не делает, потому что страшно — как только ты поставишь счетчик, пользователь пойдет к другому, где «все включено» (это называется flat rate). И вот все держатся за этот «безлимит», как за сковородку без ручки — неудобно, но бросать страшно. Потому что если сломаешься первым — останешься без юзеров. Если последним — без денег. И все делают вид, что все ок. Графики растут, активность растет, только внизу мелко написано — AWS платит не пользователь, а твой инвестор.

Главное — не дать этому выглядеть проблемой. Поэтому все рисуют красивые графики, показывают рост активности, MRR, adoption. А то, что на каждый доллар выручки тратится полтора — ну это уже разговор на борде. Потом, когда надо будет пересматривать план и CEO.

Как из этого выйти? Есть три варианта, но все — не очень приятные. Можно с самого начала сделать usage-based — но тогда не будет роста. Можно пойти в enterprise и продавать банкам и крупным компаниям — но там ты потратишь полгода на тендер. Или можно пойти по пути replit: сделать агента бесплатным, а зарабатывать на всем, что происходит после — хостинг, логирование, деплой, база. То есть использовать AI не как продукт, а как крючок.

Все остальное — это просто отсроченный момент, когда появится пост «мы меняем наш тариф». Это будет написано мягко, с уважением к пользователю. Но, по сути — это признание, что план компании не работает.

В диванном итоге получаем, что модели действительно дешевеют, но пользователи начали применять их так, будто бензин подешевел — и все сразу пересели с мопеда на Hummer. И теперь оказывается, что даже дешевая нефть не поможет, если расходы выросли в 50 раз.

Поэтому когда вам кто-то показывает график «модель станет дешевле в 10 раз», стоит сразу спросить — а что она будет делать за эти деньги? Потому что если ответ — «все, что вы ей скажете, еще и сама себе план составит», то стоимость может быть любой. А маржи все равно не будет.

Токен в моделях LLM — это отдельный кусочек текста (слово, часть слова, знак препинания или символ), который модель обрабатывает как единую единицу для понимания и генерации текста.

Источник фактов и данных в этом тексте — статья Ethan Ding Tokens Are Getting More Expensive.

Оригинал

Показать ещё новости