Сооснователь студии OpenAI Илья Суцкевер вместе со своими единомышленниками основал новый ИИ тартап под названием Safe Superintelligence (SSI). Согласно заявлению, основной целью является разработка безопасного суперинтеллекта (ASI).
Среди инициаторов этой инициативы - Илья Суцкевер, еще один бывший член OpenAI, Дэниел Леви и Дэниел Гросс, сотрудничающий с инкубатором Y Combinator.
"SSI воплощает нашу миссию, идентичность и полную стратегию продукта, поскольку представляет собой нашу эксклюзивную концентрацию. Наша команда, бэкеры и бизнес-подход полностью посвящены этой области",подчеркивается в заявлении.
Superintelligence is within reach.
— SSI Inc. (@ssi) June 19, 2024
Building safe superintelligence (SSI) is the most important technical problem of our time.
We've started the world’s first straight-shot SSI lab, with one goal and one product: a safe superintelligence.
It’s called Safe Superintelligence…
В заявлении также говорится, что выбранная бизнес-стратегия позволяет стартапу изолировать себя от "требований бизнеса". Организацией не будут управлять "административные нагрузки и жизненные циклы продуктов", подчеркивается в заявлении.
SSI юридически зарегистрирована в США и имеет представительства в Пало-Альто и Тель-Авиве. Одновременно с заявлением руководство стартапа объявило о начале кампании по набору персонала.
Примечательно, что Суцкевер и Ян Лейке, еще один бывший член OpenAI, участвовали в коалиции Superalignment. Эта коалиция была создана для обеспечения безопасного развития искусственного интеллекта.
Суцкевер поддержал уход Сэма Альтмана в ноябре 2023 года. Впоследствии Альтман объявил о своем возвращении в качестве генерального директора. В марте 2024 года Альтман вновь занял место в совете директоров.
После этих событий Суцкевер и Лейке покинули #OpenAI. Последний занял должность руководителя подразделения по управлению ИИ в #Anthropic Labs.