Чем больше параметров у нейросети, тем качественнее может быть результат, но и тем больше производится вычислений и используется мощностей компьютеров.
Например, на поддержку функционирования Chat GPT-3 со 175 млрд. параметров компания OpenAI тратила при каждом запросе пользователя не менее 0,08$. В новой версии Chat GPT-4 turbo уже 1, 76 трлн. параметров и каждый запрос стал обходиться в 0,36$. Заявленные ~ 100 млн. платных подписчиков OpenAI покрывают не более 30% всех затрат на содержание нейросетей Chat GPT-4 turbo 4 и Dall-E 2. Остальные финансовые издержки пока щедро оплачивает Microsoft (~ 5-6 млрд. Долларов в год,).
Похожие инвестиционные расходы и у других лидеров с большими моделями ИИ. Да, вычислительные мощности обходятся совсем не так дёшево, как может казаться.
В ближайшем будущем (3-5 лет) крупному бизнесу придётся пользоваться ИИ-сервисами созданными мировыми лидерами для оптимизации расходов. Почему?
Мало кто сможет тягаться по скорости обработки и стоимости запроса пользователя с большими нейромоделями (в сравнении с собственными возможностями). Похожая ситуация была с облачным хранением данных. Богатый бизнес в настоящее время предпочитает сервис от AWS, MS Azure, DropBOX, a не собственные мощности.
Хотя изначально многие начинали выстраивать свою независимую облачную инфраструктуру.
Обратная сторона использования сторонней инфраструктуры, как сервиса (модель IaaS), заключается в потенциальной потере уникальности своего бизнеса.
Размещая свой открытый или коммерческий проект на мощностях крупного вендора (IBM, OpenAI, Google, Сбер, Яндекс) нет гарантий, что в случае вашего успеха вашу идею банально не клонируют, затем улучшат с помощью "тюнинга" и ... элегантно вытеснят вас с рынка. Так регулярно делают крупные маркетплейсы - Amazon, Ozon, Яндекс и другие, перезапуская копии успешных продуктов под собственными брендами.