ШІ-стартап Anthropic, один з головних конкурентів OpenAI, завершив новий раунд фінансування, залучивши $13 мільярдів. Це підняло загальну оцінку компанії до $183 мільярдів та зробило її одним із найдорожчих приватних стартапів у світі. Про це повідомляється на сайті компанії.
Деталі раунду та стрімке зростання
Раунд фінансування очолили такі провідні інвестори, як Iconiq Capital, Fidelity Management та Lightspeed Venture Partners. Попит на акції компанії значно перевищив пропозицію: початкова мета у $5 млрд була спочатку збільшена до $10 млрд, а в підсумку компанія залучила $13 млрд.
Бізнес-показники Anthropic демонструють вибухову динаміку. Річний дохід зріс з $1 млрд на початку 2025 року до понад $5 млрд у серпні. Кількість бізнес-клієнтів сягнула 300 000. Особливо успішним є інструмент для програмістів Claude Code, дохід від якого перевищив $500 млн на рік, а його використання за останні три місяці зросло в 10 разів.
Стратегія та конкуренція
Компанія Anthropic була заснована у 2021 році колишніми топ-співробітниками OpenAI. Вона позиціонує себе як розробника більш безпечних та надійних ШІ-моделей, що зробило її популярною серед корпоративних клієнтів у таких чутливих галузях, як фінанси та охорона здоров'я. Один з продуктів компанії є велика мовна модель (LLM) Claude, яка конкурує із чатом GPT.
Залучені кошти компанія планує спрямувати на задоволення попиту з боку бізнесу, подальші дослідження у сфері безпеки ШІ та міжнародну експансію.
Безпека як бізнес-модель: у чому унікальність Anthropic?
Anthropic була заснована групою дослідників, що залишили OpenAI через розбіжності у поглядах на безпеку штучного інтелекту. Їхня головна ідея полягала в тому, щоб створити ШІ-моделі, які є не лише потужними, а й безпечними, етичними та передбачуваними.
Для цього компанія розробила унікальний підхід до навчання своїх моделей, відомий як «Конституційний ШІ» (Constitutional AI).
Спочатку модель навчають на величезному масиві текстів, як і інші LLM.
Потім, на другому етапі, замість того, щоб люди-модератори вручну коригували її поведінку, модель змушують слідувати певній «конституції» — набору принципів та правил (наприклад, «не генеруй шкідливий контент», «уникай упередженості»).
Модель самостійно навчається, критикуючи та виправляючи власні відповіді, щоб вони відповідали цим принципам.
Такий підхід дозволяє створювати більш керовані та надійні ШІ-системи. Саме цей акцент на безпеці став головною конкурентною перевагою Anthropic і привабив до неї великих корпоративних клієнтів, які бояться репутаційних та юридичних ризиків, пов'язаних з непередбачуваною поведінкою інших ШІ-моделей.