Alphabet и Nvidia, наряду с известными венчурными инвесторами, приняли решение инвестировать в стартап Safe Superintelligence (SSI), соучредителем которого является бывший главный научный сотрудник OpenAI Илья Суцкевер, сообщают Детали.
Точные условия инвестиций Alphabet и Nvidia в SSI неизвестны. Представители всех трех компаний отказались от комментариев.
Новый стартап Ильи Суцкевера в области искусственного интеллекта Safe Superintelligence уже провел несколько раундов финансирования, по итогам которых привлек 2 млрд долларов и был оценен в з2 млрд долларов.
Reuters отмечает, что спустя несколько месяцев после запуска компания быстро превратилась в один из самых ценных стартапов в сфере искусственного интеллекта, а данное финансирование иллюстрирует возобновление интереса со стороны крупных поставщиков технологий и инфраструктуры к стратегическим инвестициям в стартапы, разрабатывающие передовой ИИ, требующий огромных вычислительных мощностей.
SSI является одним из самых известных стартапов, работающих над исследованиями моделей ИИ, благодаря выдающимся достижениям Суцкевера в прогнозировании следующего большого события в разработке ИИ.
Илья Суцкевер, бывший главный научный сотрудник OpenAI, открыл свою компанию Safe Superintelligence в июне 2024 года. Отмечалось, что SSI ставит перед собой единственную задачу: создание безопасного и мощного искусственного интеллекта сверхчеловеческого уровня. У Safe Superintelligence уже открылись офисы в Пало-Альто (США) и Тель-Авиве (Израиль).
Вместе с Суцкевером основателями Safe Superintelligence стали выходец из OpenAI Дэниел Леви и бывший руководитель отдела искусственного интеллекта Apple Дэниел Гросс.
В заявлении основателей SSI подчеркивается, что инвесторы разделяют их подход, а бизнес-модель компании такова, что рабочие процессы SSI изолированы от коммерческого давления. Компания намерена создать команду лучших в мире инженеров и исследователей, сфокусированную исключительно на ИИ.
В середине мая прошлого года научный руководитель OpenAl Илья Суцкевер объявил об уходе из компании OpenAI. «Спустя почти десять лет я принял решение покинуть OpenAI», — написал он в соцсети X и выразил уверенность в том, что компания под руководством гендиректора Сэма Альтмана создаст «безопасный и полезный искусственный разум» (artificial general intelligence, AGI). Насколько известно, именно Суцкевер сыграл ключевую роль в кратковременном скандальном увольнении Сэма Альтмана в прошлом году.
Напомним, что 17 ноября 2023 года совет директоров OpenAI отправил в отставку генерального директора Сэма Альтмана. Официальный пресс-релиз по поводу смены руководства гласил, что увольнение Альтмана последовало после тщательного анализа, проведенного советом директоров, который «пришел к выводу, что он не был последовательно откровенен в общении с советом директоров, что мешало ему выполнять свои обязанности».
«Уход господина Альтмана стал результатом процесса рассмотрения советом директоров, по итогам которого был сделан вывод, что он не был всегда откровенен в своем взаимодействии с советом, что препятствует выполнению им его обязанностей. У совета больше нет уверенности в его способности возглавлять OpenAI», — говорилось в сообщении компании.
По данным источников WSJ, Суцкевер стал одним из четырех членов совета директоров OpenAI, которые предложили уволить Альтмана. Альтман и Суцкевер поссорились из-за темы безопасности искусственного интеллекта, рассказали изданию источники, знакомые с мнением совета директоров.
После того как Альтман был восстановлен в должности, он сразу заявил, что Суцкевер не вернется на прежний пост члена совета директоров, но компания «обсуждает, как он может продолжить свою работу в OpenAI». В последующие месяцы Суцкевер практически исчез из поля зрения общественности, что вызвало слухи о перспективах его дальнейшей работы в компании, отмечает Time.
Суцкевер родился в 1984 году в Нижнем Новгороде. В 1991-м вместе с семьей эмигрировал в Израиль, откуда переехал в Канаду. В Торонто в 2012 году он сделал себе имя, став соавтором статьи о необычайных возможностях алгоритмов «глубокого обучения». В 2015 году Суцкевер стал главным научным сотрудником OpenAI, сосредоточившись на двух идеях: системы ИИ могут развивать мышление до уровне человека и могут быть опасны, если «не согласованы» с человеческими ценностями. |