Какими инструментами аналитики мы будем пользоваться через несколько лет

Y Combinator когда-то дал миру Amplitude и Mixpanel - продукты, которые стали стандартом рынка аналитических тулов. Мне было интересно, какие проекты из сферы аналитики участвовали в батчах YC после 2022 года, т.е с момента массового распространения LLM.
Самая популярная категория продуктов - ai-аналитики. Большинство работают примерно одинаково: пользователь спрашивает (например “Какой GMV за последнюю неделю, какой прирост относительно предыдущей недели?”), а в ответ получает значения, графики и комментарии. Следующая по популярности категория - продукты, связанные с data-инженерией: ETL-инструменты, мониторинги качества данных, QA-тесты.

Более подробно почитать про стартапы можно на сайте YC (фильтры B2B & Analytics). Наш личный топ:
  • GetCrux - сервис, который анализирует рекламные креативы разных форматов (баннеры, видео и др.), объясняет почему сработал креатив и дает рекомендации по контенту и механикам. GetCrux уже привлек $2.6m на seed-раунде.
  • Operand - ai-консультант. В демо стартап прямым текстом угрожает убить McKinsey. Красивые слайды и рекомендации “Increase Revenue & Decrease Costs” - будут стоить сильно дешевле. А если без шуток, стартап начинает с решения задач в ритейле и e-com (ценообразование и оптимизация промо) с планами масштабироваться на другие индустрии. В отличие от прочих ИИ-решений, результаты проверяются экспертами, ex-консультантами.
  • Turntable - copilot dbt, который позволяет быстро строить таблицы, а также предсказывает баги в пайплайне данных и дашбордах.

Очень интересно наблюдать, как меняется аналитический стек и подход к работе с данными. Уже сейчас универсальные инструменты как Cursor или Claude плотно встраиваются в повседневные задачи. Все это помогает кратно увеличить капасити команд аналитики и сместить фокус с техническо-расчетных задач на бизнесово-исследовательские.
Однако, чтобы стартапам стать новым стандартом рынка, необходимо разрешить следующие вызовы:
  • Связь метрик и контекста. Сухие дельты и констатации фактов вроде "метрика выросла на X%" малоценны, они лишь служат сигналом к действию. Реальную ценность дает работа с контекстом, т.е пониманием, почему изменилась метрика, какие факторы повлияли и их вес.
  • Качество данных. Зачастую в данных есть костыли, которые необходимо учитывать при анализе, например сломанные события, или в разных версиях фича ввиду архитектуры логируется по-разному. В совокупности такие мелкие нюансы оказывают большое влияние на качество метрик.
  • Качество инференса моделей. После 1ого факапа может возникнуть скепсис относительно корректности расчетов. Время на проверки будут сводить на нет потенциальный рост эффективности. Еще опаснее это не заметить ошибку вовремя, принять решение на данных и закопать месяцы работы продуктовой команды.
Конфиденциальность данных. Использование LLM и сторонних облачных решений усиливает риски утечек и несанкционированного доступа к чувствительным данным.
Made on
Tilda