sejournal.io

Anthropic и OpenAI запретили вторичную торговлю своими акциями

1778673474728 698442 scaled

Anthropic и OpenAI обновили свою политику в отношении акций, запретив их вторичную торговлю.

На странице поддержки Anthropic говорится, что любая продажа или передача ценных бумаг без одобрения совета директоров считается недействительной: покупатель не будет признан акционером и не получит никаких прав.

В заявлении OpenAI содержится практически идентичная формулировка: без письменного согласия передача акций недействительна и не имеет экономической ценности.

Обе компании указали одинаковый перечень запрещённых схем: прямые продажи, специальные структуры целевого назначения (SPV), токенизированные доли и форвардные контракты.

SPV — это компании, создаваемые для владения акциями частной фирмы и привлечения капитала на их покупку. Такие структуры стали стандартным способом обойти ограничения для покупки бумаг ещё не публичных компаний.

Уязвимость этой схемы заключается в возможности создавать «многоуровневые SPV»: дополнительные компании для покупки акций аналогичной структуры. Это затрудняет проверку законности сделок с базовыми акциями.

Согласно новым правилам обеих компаний, если первоначальное перечисление средств в SPV не было одобрено советом директоров, вся цепочка сделок признаётся недействительной.

Anthropic опубликовала список конкретных заблокированных структур: Open Door Partners, Unicorns Exchange, Pachamama, Lionheart Ventures, Sydecar, Upmarket, Forge Global и Hiive. Последние две — наиболее известные платформы для вторичной торговли акциями частных компаний.

Forge Global — регулируемая площадка для аккредитованных инвесторов, на которой предполагаемая оценка Anthropic ранее достигала $1 трлн, опередив $880 млрд у OpenAI. В компании сообщили, что попали в список по ошибке.

«Мы работаем с Anthropic над удалением названия Forge из этого предупреждения. Наша компания не содействует сделкам с акциями каких-либо частных компаний без явного одобрения со стороны фирмы», — говорится в комментарии.

Реакция рынка

Рынок отреагировал быстро. После заявлений Anthropic и OpenAI их токены на платформе PreStocks, работающей на базе Solana, упали с $1400 до $873 и с $2000 до $1080 соответственно.

За последний год некоторые криптокомпании запустили инвестиционные продукты с доступом к акциям частных фирм. Чаще всего они представляют собой бессрочные фьючерсы — производные инструменты, которые отслеживают стоимость частных компаний на вторичных рынках, но не дают права собственности на реальные акции.

Зачем ввели запрет

В октябре 2025 года OpenAI провела санкционированное советом директоров тендерное предложение: нынешним и бывшим сотрудникам разрешили продать акции на сумму до $30 млн. Более 600 человек получили в совокупности $6,6 млрд в рамках одной сделки.

Около 75 человек решили обналичить всю сумму в $30 млн. Компания утроила прежний лимит в $10 млн на одного сотрудника, так как старое ограничение вызывало недовольство ведущих исследователей и разработчиков.

OpenAI организовала кампанию и одобрила каждую сделку — именно это право частные фирмы стараются защищать. Они стремятся контролировать вторичную продажу. Репрессии касаются всех, кто пытается обойти это правило.

Инвесторы, напротив, ищут доступ к быстрорастущей выручке ИИ-стартапов — именно те лазейки, которые OpenAI и Anthropic теперь закрыли.

Напомним, в июле 2025 года OpenAI опровергла информацию о запуске токенизированных акций фирмы, которые предложил Robinhood.

Anthropic обновила Claude: агенты научились «видеть сны» и работать в команде

1778162826437 1022155 scaled

Компания Anthropic представила обновление своей платформы для управления ИИ-агентами. В сервисе Claude появились три новые функции: «сновидения», оценка результатов и координация работы нескольких ботов.

Функция «сновидения» позволяет агентам анализировать предыдущие сеансы и выявлять закономерности. Система находит повторяющиеся ошибки и успешные сценарии, после чего обновляет алгоритмы без участия человека. Пользователь может настроить автоматическое обновление памяти ИИ или вносить изменения вручную.

Также разработчики добавили инструменты Outcomes и Webhooks. Теперь создатели приложений могут устанавливать критерии качества работы агента. Специальный «оценщик» проверяет результат на соответствие правилам отдельно от основного процесса выполнения задачи. Если результат не соответствует стандарту, агент начинает исправлять ошибки.

По данным Anthropic, Outcomes повысил эффективность выполнения сложных задач на 10%. Качество генерации документов в форматах .docx и .pptx выросло в среднем на 9%.

Третье обновление — это координация нескольких агентов. «Главный» ИИ может распределять подзадачи между узкопрофильными специалистами: один анализирует историю развертывания кода, другой — логи ошибок, третий — тикеты службы поддержки. Все они работают параллельно над общим набором файлов.

Новые функции уже тестируют партнёры компании. Платформа Harvey использует «сновидения» для подготовки юридических документов — скорость выполнения задач выросла в шесть раз. Команда Netflix задействовала мультиагентную систему для анализа логов сборки приложений.

Функция «сновидения» доступна в режиме предварительного просмотра по запросу. Outcomes и мультиагентная координация перешли в стадию публичного бета-тестирования.

Напомним, 4 мая сооснователь Anthropic Джек Кларк спрогнозировал появление «саморазвивающегося ИИ» к 2028 году.

ИИ научится создавать своих преемников к 2028 году

1777986058638 827986 scaled

Вот перефразированная новость на русском языке:

По прогнозу сооснователя компании Anthropic Джека Кларка, к 2028 году на рынке могут появиться ИИ-системы, способные самостоятельно создавать и обучать свои следующие поколения без участия человека. Кларк назвал этот сценарий «рубиконом в почти непредсказуемое будущее» и оценил его вероятность в 60% в ближайшие два года, отметив, что общество может быть не готово к таким переменам.

Он описал процесс полной автоматизации ИИ-исследований, при котором модель сама ставит задачи, проектирует эксперименты, пишет и тестирует код, оптимизирует обучение и улучшает архитектуру будущих версий ИИ.

Прогноз основан на резком росте показателей в ключевых тестах. Например, в бенчмарке SWE-Bench (решение инженерных задач) лучшие модели улучшили результат с 2% в конце 2023 года до 94% к весне 2026-го. В тесте CORE-Bench (воспроизведение научных статей) современные агенты показывают около 95,5%, а в MLE-Bench (задачи уровня Kaggle) — 64-65%. По словам Кларка, ИИ переходит от написания отдельных фрагментов кода к полноценному выполнению исследовательских и инженерных задач.

Также отмечается рост автономности ИИ: если в 2022 году системы справлялись с задачами на десятки секунд, то сейчас передовые модели могут вести инженерную работу до 12 часов подряд. Это связано с распространением агентных инструментов для программирования.

Кларк считает, что для автоматизации значительной части ИИ-разработок не требуется принципиально новых научных идей — большая часть работы похожа на рутинную инженерную деятельность. При этом у моделей уже появляются признаки научной интуиции: например, с помощью Gemini математики получили 13 решений задач Эрдеша, одно из которых сочли «слегка нетривиальным» вкладом в открытую проблему.

Если прогноз сбудется, индустрия перейдет к фазе, где каждое новое поколение ИИ будет ускоряет появление следующего. Кларк предупредил, что к концу 2028 года мир может столкнуться не только с технологическим скачком, но и с вопросами безопасности, распределения капитала и контроля над системами, развивающимися быстрее своих создателей. Если же этого не произойдет, потребуются новые человеческие изобретения.

Claude подключили к Blender, Adobe и Autodesk

1777466938357 563751 scaled

Вот перефразированная новость на русском языке:

Стартап Anthropic представил набор коннекторов, которые позволяют нейросети Claude напрямую взаимодействовать с популярными программами для дизайна и 3D-моделирования, такими как Blender, Adobe, Autodesk, Ableton, SketchUp и другими.

В компании отметили, что Claude не заменит чувство вкуса или фантазию, но поможет находить новые подходы к работе: быстрее генерировать идеи, осваивать широкий спектр навыков и браться за масштабные творческие проекты.

Вот список доступных инструментов:

* Ableton — использует ответы Claude на основе официальной документации продуктов Live и Push.
* Adobe — позволяет создавать изображения, видео и дизайн с помощью более чем 50 инструментов Creative Cloud, включая Photoshop и Express.
* Affinity от Canva — автоматизирует рутинные задачи в профессиональных творческих процессах.
* Autodesk Fusion — дает дизайнерам и инженерам с подпиской Fusion возможность создавать и редактировать 3D-модели через диалог с Claude.
* Blender — предоставляет интерфейс для Python API.
* Resolume Arena и Resolume Wire — позволяют художникам по визуальным эффектам управлять Arena, Avenue и Wire.
* SketchUp — превращает беседу с Claude в отправную точку для 3D-моделирования.
* Splice — дает музыкальным продюсерам возможность искать сэмплы в каталоге прямо из приложения Claude.

Разработчики Blender создали официальный MCP-коннектор для Claude. С его помощью 3D-художники могут анализировать и настраивать целые сцены, а также создавать скрипты для массового применения изменений к объектам. Anthropic также присоединилась к Blender Development Fund в качестве мецената для поддержки разработки Python API.

Примеры использования:

Компания привела несколько сценариев применения Claude в творчестве:

* Обучение работе с инструментами — нейросеть выступает персональным репетитором по сложному ПО, объясняя модификаторы, методы синтеза или незнакомые функции.
* Расширение возможностей через код — ИИ пишет скрипты, плагины и генеративные системы для программ.
* Интеграция инструментов в единый конвейер — Claude конвертирует форматы, реструктурирует данные и синхронизирует ресурсы в проекте.
* Автоматизация рутины — пакетная обработка ресурсов, настройка структуры проекта и применение процедурных изменений.

Anthropic также сотрудничает со студентами и преподавателями, предоставляя им доступ к Claude и новым коннекторам для внедрения в учебные программы.

Напомним, что в апреле Anthropic уже запускала экспериментальный продукт Claude Design — инструмент для генерации дизайна на базе искусственного интеллекта.

Anthropic закрывает доступ к сторонним интерфейсам по подписке

1775667381570 2658057 scaled

Компания Anthropic объявила, что с 3 апреля 2026 года подписка на Claude больше не будет покрывать использование искусственного интеллекта через сторонние интерфейсы, такие как OpenClaw. Для доступа к этим инструментам пользователям придется приобретать дополнительные пакеты услуг или использовать API-ключ.

Руководитель Claude Code Борис Черни объяснил это решение тем, что подписки изначально не были рассчитаны на сторонние инструменты, а вычислительные ресурсы компания предпочитает направлять на приоритетных клиентов, использующих собственные продукты Anthropic.

Создатель OpenClaw Питер Штайнбергер раскритиковал это изменение, заявив, что ему и сооснователю проекта Дэйву Морину удалось лишь ненадолго отсрочить его введение. Он выразил мнение, что компания сначала копирует популярные функции в свою закрытую систему, а затем блокирует доступ к открытым решениям.

В ответ Черни подчеркнул, что Anthropic поддерживает open-source, но вынуждена вводить ограничения из-за технических особенностей своих оптимизированных систем. Он также отметил, что недовольные клиенты могут отменить подписку и получить полный возврат средств.

Ранее, в апреле, Anthropic уже оказывалась в центре скандала, случайно удалив тысячи репозиториев на GitHub в попытке убрать из сети утекший исходный код Claude Code.

Anthropic по ошибке удалила тысячи репозиториев на GitHub

1775115349253 3319845 scaled

ИИ-стартап Anthropic случайно удалил тысячи репозиториев на GitHub, пытаясь убрать из сети утекший исходный код своего инструмента Claude Code. Об этом сообщает TechCrunch.

Утечку части кода компания подтвердила 31 марта. По словам представителя Anthropic, конфиденциальные данные клиентов не были раскрыты, а инцидент произошёл из-за человеческой ошибки при упаковке релиза, а не из-за взлома.

Этот случай может ослабить позиции компании, так как конкуренты и сторонние разработчики получили доступ к архитектуре популярного продукта.

Стартап отправил GitHub требование удалить репозитории на основании закона об авторском праве, что затронуло около 8100 архивов, включая форки официального хранилища. Это вызвало недовольство пользователей.

Руководитель направления Claude Code Борис Черны признал ошибку. В результате компания отозвала большинство требований на удаление, и GitHub восстановил доступ к затронутым проектам.

На фоне утечки энтузиасты запустили открытый проект OpenClaude, основанный на коде Anthropic. В него добавили поддержку API Anthropic и моделей, совместимых с OpenAI, а также сохранили оригинальные инструменты: веб-поиск, работу с файлами, анализ скриншотов и другие.

Напомним, в марте Anthropic превратила Claude в ИИ-агента, способного использовать компьютер для выполнения задач.

Microsoft заставила GPT и Claude работать в паре

50e453f0 9bdf 461e 9138 70e48d12bd68 scaled

Корпорация Microsoft представила две новые функции — Critique и Council — для своего исследовательского инструмента Copilot Researcher. Их цель — повысить точность ответов, заставляя языковые модели GPT от OpenAI и Claude от Anthropic работать совместно над одним запросом.

Функция Critique — это система глубокого анализа, которая использует несколько нейросетей одновременно. Одна модель отвечает за планирование задачи, поиск информации и создание чернового ответа, а другая выступает в роли рецензента, проверяя и дорабатывая результат. Модели могут меняться этими ролями. По заявлению Microsoft, этот подход призван бороться с типичными проблемами ИИ: галлюцинациями, ошибками в цитировании и неточностями. В тестах DRACO Critique показала результат 57,4 балла против 42,7 у Claude Opus 4.6.

Функция Council работает иначе: она запускает GPT и Claude параллельно, чтобы они независимо готовили ответы на один вопрос. Затем третья модель-«судья» анализирует оба отчёта, сравнивает их и создаёт итоговое резюме, отмечая точки согласия и расхождения.

Таким образом, в режиме Critique модели сотрудничают, а в Council — соревнуются. Critique является стандартным режимом в Researcher, а Council можно выбрать вручную. Обе функции уже доступны для пользователей программы Microsoft Frontier.

Напомним, что ранее в марте Microsoft также анонсировала ИИ-агента Cowork для выполнения сложных задач в приложениях Microsoft 365, таких как Outlook, Teams и Excel.

Руководитель OpenAI ушла в отставку из-за сделки с Пентагоном

fa76bf61 ad6e 4bc0 bc6f d910a0f0740e scaled

Руководитель отдела аппаратного обеспечения OpenAI ушла в отставку из-за сделки с Пентагоном

Кейтлин Калиновски покинула пост главы отдела аппаратного обеспечения OpenAI. Причиной её ухода стало несогласие с заключённым компанией контрактом с Министерством обороны США.

В своём заявлении Калиновски отметила, что, хотя ИИ важен для национальной безопасности, такие вопросы, как слежка за гражданами без суда и применение автономного летального оружия без контроля человека, требуют более глубокого обсуждения, чем то, что было проведено. Она подчеркнула, что решение было принципиальным и не связано с личными отношениями в компании.

Представитель OpenAI, в свою очередь, заявил, что соглашение с Пентагоном устанавливает чёткие рамки для ответственного использования ИИ в оборонных целях, прямо запрещая внутреннюю слежку и создание автономного оружия.

Это событие произошло на фоне обострения отношений властей США с другой ИИ-компанией, Anthropic. Ранее Пентагон разорвал контракт с Anthropic из-за её жёсткой этической политики, запрещающей использование технологий для массовой слежки и автономных убийств. В ответ власти признали Anthropic «риском для цепочки поставок» и предписали госструктурам отказаться от её продуктов. Глава Anthropic Дарио Амодеи заявил, что компания будет оспаривать это решение в суде, так как предпочтёт не сотрудничать с военными, если это угрожает демократическим ценностям.

Ситуация также повлияла на пользователей: количество удалений приложения ChatGPT резко возросло, в то время как конкурирующий Claude, принадлежащий Anthropic, возглавил рейтинги магазинов приложений.

ИИ нашел 22 уязвимости в Firefox

1772880332285 6427856 scaled

Искусственный интеллект от Anthropic обнаружил критические уязвимости в браузере Firefox.

Специалисты компании Anthropic с помощью своей ИИ-модели Claude Opus 4.6 провели двухнедельный аудит безопасности браузера Firefox. В результате было выявлено 22 уязвимости, 14 из которых разработчик браузера, компания Mozilla, классифицировала как критические.

Это количество составляет примерно пятую часть всех серьёзных ошибок, исправленных в Firefox за весь 2025 год. ИИ проанализировал почти 6000 файлов исходного кода на C++ и сформировал 112 отчётов. Большинство найденных проблем уже устранены в выпуске Firefox 148.

Изначально модель исследовала JavaScript-движок браузера, а затем расширила проверку на другие компоненты. Первую уязвимость типа «Use After Free», позволяющую злоумышленникам изменять данные, Claude обнаружила всего за 20 минут.

При этом разработчики Anthropic отметили, что модель гораздо эффективнее ищет уязвимости, чем создаёт на их основе реальные эксплойты. В ходе сотен тестов, потратив около $4000 на вычислительные ресурсы, ИИ смог разработать примитивный вредоносный код только в двух случаях. Эксперты считают, что пока это даёт преимущество защитникам, но сам факт возможности создания эксплойтов вызывает беспокойство.

После этого сотрудничества специалисты Mozilla также начали экспериментировать с использованием Claude для задач безопасности.

Китайские стартапы обвинили в краже технологий у Anthropic

1771922882946 2822209 scaled

Компания Anthropic обвинила китайские стартапы в массовой краже технологий ИИ

Американская компания Anthropic заявила, что три китайских ИИ-стартапа — DeepSeek, Moonshot и MiniMax — провели масштабную кампанию по незаконному использованию их модели Claude. Целью было улучшение собственных нейросетей методом дистилляции.

Что произошло:
* Китайские лаборатории создали около 24 000 поддельных аккаунтов и сгенерировали через них более 16 миллионов запросов к Claude, нарушив условия использования.
* По данным Anthropic, атаки были нацелены на ключевые возможности модели: агентное рассуждение, использование инструментов и программирование.
* Компания связала эти действия с конкретными фирмами на основе анализа IP-адресов, метаданных и информации от партнёров.

Почему это серьёзно:
Метод дистилляции (обучение слабой модели на ответах сильной) сам по себе легален и широко используется. Однако в Anthropic подчёркивают, что незаконное копирование моделей конкурентами создаёт серьёзные риски:
1. Угроза безопасности: «Украденные» модели не наследуют встроенные защитные механизмы, которые препятствуют созданию биологического оружия, кибератак или инструментов для массовой слежки.
2. Подрыв экспортного контроля: Такие атаки позволяют обходить американские экспортные ограничения на передовые чипы и ИИ-технологии, сокращая технологический разрыв.
3. Угроза для индустрии: Проблема выходит за рамки одной компании и требует скоординированных действий всего ИИ-сообщества и регуляторов.

Как Anthropic планирует бороться:
* Улучшение систем обнаружения подобных атак.
* Обмен данными с другими лабораториями и облачными провайдерами.
* Ужесточение проверки аккаунтов.
* Внедрение технических контрмер, снижающих эффективность дистилляции.

Контекст:
* Это не первое обвинение в адрес DeepSeek. В январе 2025 года её уже подозревали в краже данных у OpenAI.
* Генеральный директор Anthropic Дарио Амодеи готовится к встрече с руководством Пентагона. Компания выступает против использования её ИИ для массовой слежки или создания автономного оружия, что вызвало разногласия с военными.

Другие новости Anthropic:
Компания также запустила ИИ-сканер уязвимостей Claude Code Security. Этот инструмент анализирует код на наличие уязвимостей, которые могли оставаться незамеченными годами. Анонс вызвал падение акций крупнейших компаний кибербезопасности (Palo Alto Networks, CrowdStrike и других) на 12-19% из-за опасений инвесторов перед новым ИИ-конкурентом (явление «AI Ghost Trade»).