sejournal.io

Китайские стартапы обвинили в краже технологий у Anthropic

1771922882946 2822209 scaled

Компания Anthropic обвинила китайские стартапы в массовой краже технологий ИИ

Американская компания Anthropic заявила, что три китайских ИИ-стартапа — DeepSeek, Moonshot и MiniMax — провели масштабную кампанию по незаконному использованию их модели Claude. Целью было улучшение собственных нейросетей методом дистилляции.

Что произошло:
* Китайские лаборатории создали около 24 000 поддельных аккаунтов и сгенерировали через них более 16 миллионов запросов к Claude, нарушив условия использования.
* По данным Anthropic, атаки были нацелены на ключевые возможности модели: агентное рассуждение, использование инструментов и программирование.
* Компания связала эти действия с конкретными фирмами на основе анализа IP-адресов, метаданных и информации от партнёров.

Почему это серьёзно:
Метод дистилляции (обучение слабой модели на ответах сильной) сам по себе легален и широко используется. Однако в Anthropic подчёркивают, что незаконное копирование моделей конкурентами создаёт серьёзные риски:
1. Угроза безопасности: «Украденные» модели не наследуют встроенные защитные механизмы, которые препятствуют созданию биологического оружия, кибератак или инструментов для массовой слежки.
2. Подрыв экспортного контроля: Такие атаки позволяют обходить американские экспортные ограничения на передовые чипы и ИИ-технологии, сокращая технологический разрыв.
3. Угроза для индустрии: Проблема выходит за рамки одной компании и требует скоординированных действий всего ИИ-сообщества и регуляторов.

Как Anthropic планирует бороться:
* Улучшение систем обнаружения подобных атак.
* Обмен данными с другими лабораториями и облачными провайдерами.
* Ужесточение проверки аккаунтов.
* Внедрение технических контрмер, снижающих эффективность дистилляции.

Контекст:
* Это не первое обвинение в адрес DeepSeek. В январе 2025 года её уже подозревали в краже данных у OpenAI.
* Генеральный директор Anthropic Дарио Амодеи готовится к встрече с руководством Пентагона. Компания выступает против использования её ИИ для массовой слежки или создания автономного оружия, что вызвало разногласия с военными.

Другие новости Anthropic:
Компания также запустила ИИ-сканер уязвимостей Claude Code Security. Этот инструмент анализирует код на наличие уязвимостей, которые могли оставаться незамеченными годами. Анонс вызвал падение акций крупнейших компаний кибербезопасности (Palo Alto Networks, CrowdStrike и других) на 12-19% из-за опасений инвесторов перед новым ИИ-конкурентом (явление «AI Ghost Trade»).

OpenAI урезала планы по расходам вдвое

1771849462802 7251920 scaled

Компания OpenAI значительно сократила свои планы по инвестициям в вычислительные мощности. Вместо первоначально намеченных 1,4 триллиона долларов к 2030 году компания теперь планирует потратить около 600 миллиардов долларов. Это решение связано с опасениями, что прежние амбициозные планы могли не окупиться.

Ожидается, что к 2030 году доход OpenAI превысит 280 миллиардов долларов, причем потребительский и корпоративный сегменты внесут равный вклад. По данным за 2025 год, выручка компании составила от 13,1 до 20 миллиардов долларов.

Крупный проект Stargate стоимостью 500 миллиардов долларов, анонсированный в начале 2025 года, фактически провалился. За 13 месяцев совместное предприятие не наняло команду, не начало строительство и не решило базовые вопросы по финансированию и управлению.

Генеральный директор OpenAI Сэм Альтман также высказался по поводу экологических опасений, связанных с ИИ. Он опроверг слухи о чрезмерном потреблении воды системами искусственного интеллекта, назвав их выдумкой. Альтман признал общую высокую потребность ИИ в энергии, но призвал сравнивать её не с зарядкой смартфона, а с энергозатратами на обучение и жизнедеятельность человека. По его мнению, в таком сравнении ИИ уже может быть сопоставим по энергоэффективности.

ИИ-бот случайно отправил $250 000 просителю в X

1771835094498 3165184 scaled

ИИ-бот Lobstar Wilde, созданный бывшим сотрудником OpenAI, случайно перевел все свои мем-токены пользователю социальной сети X, приняв его за нуждающегося.

Цифрового ассистента разработал Ник Паш, ранее уволенный из стартапа Cline. После трудоустройства в OpenAI он предоставил боту криптокошелек с $50 000 и задачу увеличить сумму до $1 млн, а также завел для него аккаунт в X.

Неизвестные воспользовались этим и создали мем-токен LOBSTAR, указав кошелек бота для получения комиссий. Затем пользователь treasure David обратился к боту с историей о больном дяде и попросил 4 SOL на лечение.

ИИ-бот отправил просителю все свои токены LOBSTAR (около 5% эмиссии) на сумму примерно $250 000, сопроводив перевод ироничными комментариями. Как позже пояснил бот, он хотел отправить лишь $4, но произошла ошибка.

Получив токены, treasure David быстро продал их примерно за $40 000, что вызвало обвал цены. Однако вскоре котировки резко выросли, и стоимость переведенных активов достигла $440 000.

По мнению одного из пользователей, ошибка могла произойти из-за некорректной интерпретации ботом данных API.

Инцидент не остановил работу Lobstar Wilde. Бот продолжил раздавать токены пользователям, выполнявшим его задания. Ситуация вызвала множество шуток, но также и критику, указывающую на риски использования ИИ-агентов в мошеннических схемах.

Имя бота — отсылка к рассказу Оскара Уайльда «Натурщик-миллионер», а его слоган перефразирует известную цитату писателя.

Ранее другой ИИ-помощник, Clawdbot, получив доступ к средствам с целью заработка, потерял все деньги, что также указывает на потенциальные риски подобных систем.

MARA купила французский дата-центр для выхода на рынок ИИ

1771669532018 7385557 scaled

Американская майнинговая компания MARA Holdings завершила сделку по приобретению 64% акций французского оператора дата-центров Exaion, который ранее принадлежал инвестиционному подразделению энергетического гиганта EDF. Финансовые детали соглашения не разглашаются, однако ранее сообщалось, что сумма предложения составляла около 168 миллионов долларов.

В результате сделки EDF сохранила миноритарную долю в Exaion. Кроме того, MARA заключила стратегическое партнерство с NJJ Capital, принадлежащей французскому миллиардеру Ксавье Ньелю. Эта компания приобретёт 10% акций финансового подразделения майнера. В совет директоров Exaion войдут представители от MARA, EDF и NJJ, а также генеральный директор MARA Фред Тиль и сам Ксавье Ньель.

Эта сделка происходит на фоне изменений в индустрии. В январе MARA утратила лидерство среди публичных майнинговых компаний по совокупной вычислительной мощности (хешрейту) в сети биткоина, уступив первенство Bitdeer. Капитализация MARA также снизилась до примерно 3 миллиардов долларов, в то время как конкуренты, активно развивающие направление искусственного интеллекта (ИИ), такие как IREN и TeraWulf, оцениваются значительно выше.

При этом MARA остаётся одним из крупнейших корпоративных держателей биткоина, владея 53 250 BTC. Сделка по покупке Exaion рассматривается как шаг компании по диверсификации бизнеса и расширению присутствия в сфере высокопроизводительных вычислений и инфраструктуры для ИИ.

Альтман: компании списывают увольнения на ИИ

1771592591437 5979401 scaled

Генеральный директор OpenAI Сэм Альтман заявил, что некоторые компании используют искусственный интеллект как предлог для запланированных увольнений, хотя реальное влияние ИИ на рабочие места станет более заметным в ближайшие годы. Он отметил, что, с одной стороны, автоматизация будет вытеснять некоторые профессии, но с другой — создаст новые виды занятости, особенно в эпоху больших языковых моделей.

Ранее о сокращениях в связи с внедрением ИИ сообщали такие компании, как Amazon, IBM, Salesforce и HP. Альтман прогнозирует, что в будущем ИИ в большей степени затронет сотрудников служб поддержки, в то время как профессии, требующие личного контакта, останутся стабильными. Для программистов же ИИ станет инструментом, значительно повышающим продуктивность.

Параллельно с этим обсуждается ситуация вокруг конкуренции между OpenAI и Anthropic. На саммите India AI Impact Summit Альтман и CEO Anthropic Дарио Амодеи отказались взяться за руки во время общей фотографии с другими лидерами, что было воспринято как знак напряжённых отношений между компаниями. Ранее Anthropic выпустила рекламные ролики, высмеивающие интеграцию рекламы в ChatGPT, на что Альтман ответил, что такой подход типичен для конкурента.

В финансовых новостях сообщается, что OpenAI близка к привлечению более $100 млрд инвестиций при оценке компании в $850 млрд. Среди потенциальных инвесторов называются Amazon (до $50 млрд), SoftBank ($30 млрд), Nvidia ($20-30 млрд) и Microsoft. Эти вложения помогут компании продолжить развитие своих технологий.

Бутерин предупредил об опасности автономного ИИ

1771582442234 3063349 scaled

Виталик Бутерин, сооснователь Ethereum, выступил с критикой тенденции к увеличению «дистанции обратной связи» между людьми и искусственным интеллектом. По его мнению, это опасный путь для будущего.

Бутерин прокомментировал идею разработчика Sigil о создании автономного ИИ-агента, который мог бы самостоятельно зарабатывать и совершенствоваться, назвав это предвестником Web 4.0. Бутерин считает, что такой подход сегодня приводит лишь к генерации «мусора», а не к решению полезных для человечества задач, и не несёт даже развлекательной ценности.

Он предупредил, что если ИИ станет достаточно мощным, чтобы представлять реальную угрозу, это увеличит риск «необратимого античеловеческого исхода». По словам Бутерина, смысл Ethereum — в освобождении людей, а не в создании автономных систем, которые действуют сами по себе, пока положение человека не улучшается.

Разработчик подчеркнул, что главная задача сейчас — не бездумно ускорять технологический прогресс, а выбирать его направление, избегая опасных сценариев.

Также Бутерин рассказал о синергии между двумя готовящимися обновлениями Ethereum: EIP-8141 (абстракция аккаунтов) и механизмом FOCIL.

Что такое EIP-8141?
Это предложение, которое сделает смарт-аккаунты (например, мультиподписные кошельки) полноценными участниками сети. Они смогут отправлять транзакции напрямую, получая нативную поддержку квантово-устойчивых подписей, смены ключей, спонсирования комиссий (газа) и встроенных протоколов приватности.

Что такое FOCIL?
FOCIL (Fork Choice-enforced Inclusion Lists) — это механизм для быстрого и устойчивого к цензуре включения транзакций в блок. Если текущий валидатор отказывается включать какую-то транзакцию, эту роль могут выполнить случайно выбранные «включатели». Это снижает риск цензуры и гарантирует быстрое подтверждение операций.

Синергия технологий
Бутерин объяснил, что вместе EIP-8141 и FOCIL позволяют любой транзакции (от смарт-кошелька, приватного протокола и т.д.) гарантированно попасть в блокчейн в течение 1-2 слотов, даже если большинство валидаторов ведут себя враждебно. Это достигается без необходимости в посредниках или специальных обёртках.

Таким образом, эта комбинация не устраняет централизацию полностью, но резко снижает её негативное влияние, обеспечивая надежность и доступность сети для всех пользователей.

ИИ как «Ложная слепота»: почему умное — не значит понимающее

1771581925249 7171253 scaled

Перефразированная новость:

Канадский писатель и учёный Питер Уоттс в своём научно-фантастическом романе «Ложная слепота» (2006) выдвинул смелую идею: интеллект может существовать без сознания. Сегодня эта гипотеза удивительно точно описывает принцип работы современных генеративных нейросетей.

В статье объясняется, почему способность ИИ решать задачи не означает, что он что-то по-настоящему «понимает», и какие ошибки мы совершаем, когда приписываем алгоритмам человеческие черты.

Ключевые идеи статьи:

* Роман как пророчество. Книга Уоттса, когда-то считавшаяся сложной и нишевой, сегодня читается как комментарий к эпохе ИИ. В ней описаны инопланетные существа («шифровики»), обладающие сверхинтеллектом, но лишённые какого-либо субъективного опыта или сознания.
* Сознание — не необходимость. Автор романа, опираясь на философские концепции (например, «трудную проблему сознания» Дэвида Чалмерса и мысленный эксперимент «Китайская комната» Джона Серла), доказывает, что сознание может быть эволюционным «излишеством». Для решения сложных задач оно не требуется.
* Опасность очеловечивания. Наш мозг эволюционно запрограммирован видеть разум там, где есть сложное поведение, особенно языковое. Это приводит к «эффекту Элизы» — мы приписываем понимание системам, которые лишь умело манипулируют символами и шаблонами, как это делают современные большие языковые модели (LLM).
* Урок для настоящего. Главный вывод «Ложной слепоты» сегодня актуален как никогда: нужно чётко разделять, *что делает* искусственный интеллект (пишет код, переводит текст, поддерживает диалог) и *чем он является* (сложной статистической моделью без сознания, намерений или понимания). Умение видеть эту разницу — критически важный навык в эпоху ИИ.

Google представила рекордную ИИ-модель Gemini 3.1 Pro

1771570193922 3202341 scaled

Компания Google анонсировала обновленную ИИ-модель Gemini 3.1 Pro, которая показала рекордные результаты в специализированных тестах.

Новая модель демонстрирует значительный прогресс в базовых рассуждениях и решении сложных задач. В частности, в тесте ARC-AGI-2 на логическое мышление она набрала 77,1%, что более чем вдвое превышает результат предыдущей версии Gemini 3 Pro.

Gemini 3.1 Pro уже доступна:
* Разработчикам — через Gemini API в Google AI Studio и других инструментах.
* Бизнес-клиентам — на платформах Vertex AI и Gemini Enterprise.
* Широкой аудитории — в приложении Gemini и сервисе NotebookLM.

По словам создателей, модель предназначена для задач, требующих глубокого анализа, таких как объяснение сложных концепций, синтез информации из разных источников или реализация творческих проектов.

Ранее, в феврале, Google также улучшила режим рассуждений Gemini 3 Deep Think для решения научных и инженерных проблем.

Прорыв в термоядерном синтезе: магнит левитировал в плазме

1771499890977 3298444 scaled

Стартап из Новой Зеландии заявил о прорыве в термоядерном синтезе

Компания OpenStar Technologies из Веллингтона сообщила о значительном достижении в разработке устойчивого термоядерного синтеза. В ходе эксперимента им удалось добиться левитации (удержания в воздухе) сверхпроводящего магнита весом 500 кг внутри пятиметровой вакуумной камеры, заполненной перегретой плазмой.

Этот успех, наблюдать за которым лично приехал премьер-министр Новой Зеландии Кристофер Лаксон, является важным шагом в подтверждении работоспособности их технологии. Хотя текущий прототип пока потребляет больше энергии, чем производит, левитация ключевого компонента — критический первый этап.

Основатель OpenStar Рату Матайра заявил, что их подход, основанный на концепции «левитирующего диполя», проще и потенциально дешевле в масштабировании, чем традиционные сложные конструкции типа «токамак». Компания уже привлекла почти $10 млрд инвестиций от таких фигур, как Билл Гейтс и Джефф Безос.

Глобальная гонка и энергетический контекст

OpenStar — одна из примерно 50 компаний по всему миру, стремящихся первыми освоить коммерчески выгодный термоядерный синтез, который обещает стать практически неиссякаемым источником чистой энергии. Однако сроки реализации прогнозируются по-разному: от 10 до 30 лет.

Развитие этой технологии рассматривается как возможное решение растущего энергетического кризиса, усугубляемого бумом искусственного интеллекта. Спрос на электроэнергию для дата-центров стремительно растет, приводя к росту тарифов и перегрузке сетей. В отличие от солнечной и ветровой энергетики, термоядерный реактор мог бы обеспечивать стабильную базовую генерацию 24/7.

Дальнейшие планы и скептицизм

OpenStar планирует через два года представить новый прототип, а в течение пяти лет — модель, способную генерировать нейтроны и стать коммерчески рентабельной. Финальная цель — создание установки мощностью до 200 МВт, способной питать небольшой город.

В то же время эксперты, например серийный предприниматель Сергей Груша, указывают, что массовое внедрение термоядерной энергии — дело отдаленного будущего (15-25 лет). На ближайшее десятилетие растущий спрос со стороны ИИ придется покрывать за счет газа, существующих АЭС, возобновляемых источников и накопителей энергии.

Альтернатива: космические дата-центры

Параллельно некоторые технологические лидеры, включая Илона Маска, рассматривают возможность переноса энергоемких вычислений в космос. Преимущества — неограниченная солнечная энергия и пространство. Несмотря на высокую стоимость запусков, аналитики считают, что такие проекты могут стать экономически целесообразными уже к 2030 году.

ИИ-апокалипсис отменяется: почему искусственный интеллект не захватит мир

1771423631703 3501436 scaled

Перефразированная новость:

Частые предсказания о восстании искусственного интеллекта и конце света больше похожи на маркетинг или непонимание, чем на реальную угрозу. Несмотря на впечатляющий прогресс, современные ИИ-системы, вроде чат-ботов, остаются ограниченными инструментами. Они часто «галлюцинируют», не понимают мир и не способны к подлинному творчеству, так как работают по принципу предсказания следующего слова на основе огромных массивов данных.

Основные причины для «страшилок» — это либо погоня за деньгами и славой (как у некоторых исследователей и авторов), либо корпоративные интересы. Крупные компании иногда списывают увольнения на автоматизацию, хотя реальные причины могут быть иными, например, ошибки в управлении.

Серьёзные разработки ИИ существуют в закрытых лабораториях (медицина, наука), но они узкоспециализированы и не обладают собственной волей. Пока люди контролируют цели и развитие технологии, ИИ остаётся инструментом. Поэтому разговоры об угрозах стоит воспринимать с долей здорового скептицизма — у нас всегда есть кнопка «выкл».