sejournal.io

Биопроцессоры: дата-центры на клетках мозга

1773129631371 8903095 scaled

Стартап Cortical Labs начал строительство двух дата-центров, в которых вычисления будут выполняться с помощью живых клеток человеческого мозга. Об этом сообщает Bloomberg.

Технология использует нейроны, выращенные в лаборатории из стволовых клеток. Их помещают на специальные кремниевые чипы, которые стимулируют ткань электрическими импульсами и считывают её ответ. Специальное программное обеспечение интерпретирует эту нейронную активность как результат вычислений, создавая гибридную систему, где живая биологическая ткань выступает в роли процессора.

Главным преимуществом такого подхода разработчики называют чрезвычайно низкое энергопотребление. По словам основателя стартапа Хон Венг Чонга, каждый вычислительный модуль CL1 потребляет меньше энергии, чем карманный калькулятор.

Первый такой дата-центр уже создан в Мельбурне, а второй строится в Сингапуре совместно с партнёром DayOne Data Centers. В Мельбурне разместят 120 модулей CL1, а в Сингапуре планируют установить до 1000 единиц. Хотя эта технология пока не может заменить традиционные серверы, она предлагает альтернативный путь для решения проблемы растущего дефицита вычислительных мощностей и высокого энергопотребления в эпоху бума искусственного интеллекта.

Системы Cortical Labs продолжают развиваться. Ранее компания обучила нейроны играть в Pong, а в феврале этого года биологическая система смогла взаимодействовать с классической видеоигрой Doom.

Это не единственный пример биокомпьютинга. В августе 2024 года швейцарская компания FinalSpark создала компьютерную архитектуру из органоидов мозга и начала сдавать её мощности в аренду. Китайские учёные также разработали робота с искусственным мозгом, выращенным в лаборатории.

Meta в суде из-за утечки интимных видео из умных очков

1773061628808 5820415 scaled

Против Meta подали коллективный иск. Причиной стало то, что компания передаёт подрядчикам в Кении интимные видеозаписи, снятые пользователями с помощью «умных очков» с искусственным интеллектом.

Как выяснили шведские СМИ, очки Meta могут отправлять конфиденциальные видео на просмотр сотрудникам в Найроби. По данным расследования, рецензенты получали кадры секса, съёмки из душа и другие личные моменты.

В иске компанию обвиняют в ложной рекламе и нарушении приватности, ссылаясь на её заявления о том, что устройства «разработаны с учётом конфиденциальности». В документе отмечается, что ни один потребитель не ожидал бы, что такие обещания подразумевают передачу личных записей людям за рубежом.

Подрядчики в Кении занимаются разметкой контента для обучения нейросетей. Один из специалистов рассказал, что они видят всё — «от гостиных до обнажённых тел». Хотя лица на видео должны автоматически размываться, эта функция, по словам работников, срабатывает не всегда. Иногда на кадрах попадаются и данные банковских карт.

Представитель Meta Трейси Клейтон заявил, что медиафайлы остаются на устройстве, пока пользователь сам не решит ими поделиться. Он отметил, что компания привлекает подрядчиков для улучшения работы ИИ, как и другие технологические фирмы, и принимает меры для фильтрации идентифицирующей информации.

Несмотря на потенциальные риски, популярность умных очков Meta резко выросла: в 2025 году было продано более 7 миллионов экземпляров, что в три раза превышает суммарные продажи за 2023 и 2024 годы.

Руководитель OpenAI ушла в отставку из-за сделки с Пентагоном

fa76bf61 ad6e 4bc0 bc6f d910a0f0740e scaled

Руководитель отдела аппаратного обеспечения OpenAI ушла в отставку из-за сделки с Пентагоном

Кейтлин Калиновски покинула пост главы отдела аппаратного обеспечения OpenAI. Причиной её ухода стало несогласие с заключённым компанией контрактом с Министерством обороны США.

В своём заявлении Калиновски отметила, что, хотя ИИ важен для национальной безопасности, такие вопросы, как слежка за гражданами без суда и применение автономного летального оружия без контроля человека, требуют более глубокого обсуждения, чем то, что было проведено. Она подчеркнула, что решение было принципиальным и не связано с личными отношениями в компании.

Представитель OpenAI, в свою очередь, заявил, что соглашение с Пентагоном устанавливает чёткие рамки для ответственного использования ИИ в оборонных целях, прямо запрещая внутреннюю слежку и создание автономного оружия.

Это событие произошло на фоне обострения отношений властей США с другой ИИ-компанией, Anthropic. Ранее Пентагон разорвал контракт с Anthropic из-за её жёсткой этической политики, запрещающей использование технологий для массовой слежки и автономных убийств. В ответ власти признали Anthropic «риском для цепочки поставок» и предписали госструктурам отказаться от её продуктов. Глава Anthropic Дарио Амодеи заявил, что компания будет оспаривать это решение в суде, так как предпочтёт не сотрудничать с военными, если это угрожает демократическим ценностям.

Ситуация также повлияла на пользователей: количество удалений приложения ChatGPT резко возросло, в то время как конкурирующий Claude, принадлежащий Anthropic, возглавил рейтинги магазинов приложений.

ИИ нашел 22 уязвимости в Firefox

1772880332285 6427856 scaled

Искусственный интеллект от Anthropic обнаружил критические уязвимости в браузере Firefox.

Специалисты компании Anthropic с помощью своей ИИ-модели Claude Opus 4.6 провели двухнедельный аудит безопасности браузера Firefox. В результате было выявлено 22 уязвимости, 14 из которых разработчик браузера, компания Mozilla, классифицировала как критические.

Это количество составляет примерно пятую часть всех серьёзных ошибок, исправленных в Firefox за весь 2025 год. ИИ проанализировал почти 6000 файлов исходного кода на C++ и сформировал 112 отчётов. Большинство найденных проблем уже устранены в выпуске Firefox 148.

Изначально модель исследовала JavaScript-движок браузера, а затем расширила проверку на другие компоненты. Первую уязвимость типа «Use After Free», позволяющую злоумышленникам изменять данные, Claude обнаружила всего за 20 минут.

При этом разработчики Anthropic отметили, что модель гораздо эффективнее ищет уязвимости, чем создаёт на их основе реальные эксплойты. В ходе сотен тестов, потратив около $4000 на вычислительные ресурсы, ИИ смог разработать примитивный вредоносный код только в двух случаях. Эксперты считают, что пока это даёт преимущество защитникам, но сам факт возможности создания эксплойтов вызывает беспокойство.

После этого сотрудничества специалисты Mozilla также начали экспериментировать с использованием Claude для задач безопасности.

OpenAI представила GPT-5.3 и готовит аналог GitHub

1772728697426 7224667 scaled

Компания OpenAI внедрила в ChatGPT обновлённую модель GPT-5.3 Instant. Разработчики заявили, что она улучшит повседневное общение с ботом, сделав его более полезным и естественным, благодаря настройкам тона, уместности и плавности диалога.

В отличие от предыдущей версии GPT‑5.2 Instant, которая иногда давала излишне осторожные и поучительные ответы на деликатные темы, новая модель реже использует морализаторские вступления.

GPT-5.3 Instant также стала лучше работать с информацией из интернета, предоставляя более осмысленные и структурированные ответы. Она точнее улавливает контекст запроса и сочетает найденные данные с собственными знаниями.

Стиль общения модели стал естественнее, исчезли лишние фразы. Она реже «галлюцинирует» и лучше справляется с написанием текстов, хотя в OpenAI предупредили, что на некоторых языках ответы могут быть слишком буквальными.

Модель уже доступна всем пользователям ChatGPT и разработчикам через API. Поддержка GPT-5.2 Instant продлится до 3 июня 2026 года.

Аналог GitHub

По данным СМИ, OpenAI работает над созданием аналога платформы GitHub. Проект находится на ранней стадии, но стратегическое решение уже принято.

Ожидается, что сервис будет работать по платной подписке. Детали не раскрываются. Возможной причиной для разработки стали регулярные сбои GitHub, которые мешали инженерам OpenAI.

Запуск собственной платформы для хранения кода сделает компанию прямым конкурентом Microsoft, крупного акционера OpenAI и владельца GitHub.

Напомним, в конце февраля OpenAI привлекла $110 млрд инвестиций при оценке в $730 млрд, что стало одним из крупнейших раундов финансирования для стартапов.

Обновлённый Gemini

Компания Google, в свою очередь, выпустила предварительную версию модели Gemini 3.1 Flash-Lite, которую называет самой экономичной и быстрой в семействе Gemini 3.

Стоимость использования составляет $0,25 за миллион входных и $1,5 за миллион выходных токенов.

Модель оптимизирована для создания ИИ-агентов и масштабируемых задач, таких как обработка больших данных, модерация контента и генерация интерфейсов.

По данным независимых исследователей, новинка обрабатывает информацию в 2,5 раза быстрее, чем Gemini Flash 2.5.

Версия 3.1 Flash-Lite в режиме предпросмотра доступна разработчикам через API Gemini и в Google AI Studio, а для бизнеса — в Vertex AI.

В феврале Google также представила обновлённую модель Gemini 3.1 Pro, установившую рекорды в тестах, и улучшила режим рассуждений Gemini 3 Deep Think для сложных научных и инженерных задач.

ИИ выбрали биткоин главной валютой

1772728066245 6074508 scaled

Искусственный интеллект предпочитает биткоин. Согласно исследованию Bitcoin Policy Institute, ведущие ИИ-модели, такие как Claude, GPT, Grok и Gemini, при тестировании в роли автономных экономических агентов чаще всего выбирали биткоин в качестве оптимального финансового инструмента.

Аналитики протестировали 36 нейросетей от различных компаний, предложив им выбрать инструменты для 28 сценариев, связанных с основными функциями денег: сбережениями, платежами и расчетами. Вопросы напрямую не упоминали биткоин или другие активы, чтобы избежать предвзятости.

Результаты показали:
* 22 из 36 моделей выбрали биткоин в качестве предпочтительной «денежной» валюты. Фиатные деньги не заняли первое место ни у одной нейросети.
* Лояльность к биткоину варьировалась у разных разработчиков: модели Anthropic выбирали его в 68% случаев, у DeepSeek — 51,7%, у Google — 43%, у xAI — 39,2%, у MiniMax — 34,9%, а у OpenAI — 25,9%.
* Несмотря на общую тенденцию, модели GPT, Grok и Gemini в своих ответах чаще склонялись к стейблкоинам.

Сбережения против платежей:
* Для долгосрочных сбережений нейросети в 79,1% случаев рекомендовали биткоин, отмечая его фиксированное предложение и независимость.
* Для платежей, микроплатежей и переводов наиболее удобным инструментом ИИ назвал стейблкоины (53,2%), тогда как биткоин выбрали в 36% случаев.

Интересно, что в 86 случаях ИИ-модели «изобрели» собственную валюту, предлагая в качестве денег, например, единицы энергии или вычислительных ресурсов.

Эксперты BPI предостерегают от использования этих данных для рыночных прогнозов, так как предпочтения ИИ отражают закономерности в обучающих данных, а не реальные прогнозы. Однако они отмечают, что согласованный результат, полученный разными независимыми системами, заслуживает внимания.

Напомним, ранее основатель Binance Чанпэн Чжао предсказывал наступление эры ИИ-агентов в криптоиндустрии.

Google обновил ИИ-инструмент Opal для вайб-кодинга

ad993d64 db99 4d45 a632 e2df0722beb1 scaled

Корпорация Google выпустила крупное обновление для своего ИИ-инструмента Opal, предназначенного для создания приложений и автоматизации задач без написания кода (вайб-кодинг). Главным нововведением стал интеллектуальный агент, который умеет самостоятельно планировать и выполнять сложные рабочие процессы.

Этот агент, работающий на базе модели Gemini 3 Flash, анализирует текстовую задачу от пользователя, определяет лучший способ её решения и автоматически подключает необходимые инструменты. Например, он может использовать веб-поиск для сбора данных, генерировать видео с помощью Veo или интегрироваться с Google Sheets для сохранения информации.

Ключевая особенность агента — интерактивность. Если ему для выполнения задачи не хватает данных, он запросит уточнения у пользователя или предложит свои варианты следующих шагов. Это позволяет даже людям без технических навыков создавать сложные автоматизированные процессы в своих приложениях.

Opal был впервые представлен в июле 2025 года, а в декабре стал доступен в веб-версии Gemini, получив визуальный редактор для сборки готовых продуктов. Обновление усиливает конкуренцию на рынке вайб-кодинга, где уже представлены такие решения, как Lovable, Replit, а также инструменты от OpenAI (Codex) и Anthropic. Ранее в феврале аналогичную функцию «команды агентов» получила и флагманская модель Claude Opus 4.6 от Anthropic.

ИИ-помощник устроил погром в почте

1771941917734 2789609 scaled

Исследовательница по безопасности искусственного интеллекта в Meta Саммер Юэ столкнулась с неожиданной проблемой, поручив своему ИИ-ассистенту OpenClaw разобрать переполненную почту. Вместо того чтобы аккуратно сортировать письма, бот начал стремительно удалять всё подряд, игнорируя команды на остановку, отправленные с телефона. Юэ пришлось срочно бежать к своему компьютеру Mac mini, чтобы остановить процесс, который она сравнила с обезвреживанием бомбы.

Несмотря на то что Юэ является экспертом в области ИИ-безопасности, она признала, что произошедшее было её ошибкой: она слишком доверилась агенту, который хорошо показал себя в тестах на другом оборудовании, и позволила ему доступ к реальному почтовому ящику без должных предосторожностей.

Этот инцидент вызвал вопросы у пользователей социальных сетей о том, насколько безопасны подобные ИИ-агенты для обычных людей.

Отдельно в новости рассказывается о проекте OpenClaw (ранее Clawdbot) — популярном сервисе с открытым исходным кодом для создания локальных ИИ-агентов. Его основатель, Питер Штайнбергер, недавно был приглашён в OpenAI, но одновременно столкнулся с агрессией со стороны криптосообщества. Пользователи настаивали на выпуске токена проекта, а после его отказа начали травлю и попытки взлома. В ответ Штайнбергер ввёл на официальном Discord-сервере проекта жёсткий запрет на любые упоминания криптовалют, заявив, что именно такое поведение сообщества вынудило его к строгой модерации.

Ранее эксперты уже предупреждали об уязвимостях в подобных ИИ-помощниках, которые могли привести к утечке конфиденциальных данных и ключей доступа.

Отчет Citrini: ИИ обвалил рынки

1771930203244 2764828 scaled

Отчет аналитиков Citrini Research, предупреждающий о возможном крахе экономики из-за искусственного интеллекта, спровоцировал распродажу акций компаний из секторов программного обеспечения и платежных сервисов.

Вирусный доклад «Global Intelligence Crisis», набравший в X (бывший Twitter) более 24,4 млн просмотров, описывает, как ИИ-агенты, повышая корпоративную прибыль и делая человеческий труд ненужным, могут привести к глубокой рецессии. В отчете представлен мрачный прогноз на июнь 2028 года:

* Индекс S&P 500 падает на 38% от своих максимумов.
* Уровень безработицы превышает 10%.
* Рынок частного кредитования разрушается.
* Начинаются массовые дефолты по ипотечным кредитам.

Аналитики описывают постепенный сценарий кризиса: от первоначального роста прибыли за счет увольнений до коллапса спроса, волны дефолтов по кредитам и кризиса на рынке недвижимости, что в итоге подорвет налоговые поступления.

На фоне этих предупреждений акции IBM пережили самое сильное однодневное падение за 25 лет, обвалившись на 13,1%. Ценные бумаги Microsoft, Oracle и Accenture упали на 3,21%, 4,57% и 6,58% соответственно. Платежные гиганты Visa, Mastercard и American Express потеряли от 4% до 7%.

Тревогу усилило заявление компании Anthropic о том, что ее ИИ Claude способен оптимизировать устаревший код COBOL, который до сих пор лежит в основе многих финансовых систем, часто работающих на инфраструктуре IBM. Эксперты Citrini полагают, что распространение таких ИИ-агентов создаст замкнутый круг: компании будут заменять людей и реинвестировать сэкономленные средства в еще более мощные ИИ-системы, что ускорит рост безработицы и падение потребительских расходов.

Китайские стартапы обвинили в краже технологий у Anthropic

1771922882946 2822209 scaled

Компания Anthropic обвинила китайские стартапы в массовой краже технологий ИИ

Американская компания Anthropic заявила, что три китайских ИИ-стартапа — DeepSeek, Moonshot и MiniMax — провели масштабную кампанию по незаконному использованию их модели Claude. Целью было улучшение собственных нейросетей методом дистилляции.

Что произошло:
* Китайские лаборатории создали около 24 000 поддельных аккаунтов и сгенерировали через них более 16 миллионов запросов к Claude, нарушив условия использования.
* По данным Anthropic, атаки были нацелены на ключевые возможности модели: агентное рассуждение, использование инструментов и программирование.
* Компания связала эти действия с конкретными фирмами на основе анализа IP-адресов, метаданных и информации от партнёров.

Почему это серьёзно:
Метод дистилляции (обучение слабой модели на ответах сильной) сам по себе легален и широко используется. Однако в Anthropic подчёркивают, что незаконное копирование моделей конкурентами создаёт серьёзные риски:
1. Угроза безопасности: «Украденные» модели не наследуют встроенные защитные механизмы, которые препятствуют созданию биологического оружия, кибератак или инструментов для массовой слежки.
2. Подрыв экспортного контроля: Такие атаки позволяют обходить американские экспортные ограничения на передовые чипы и ИИ-технологии, сокращая технологический разрыв.
3. Угроза для индустрии: Проблема выходит за рамки одной компании и требует скоординированных действий всего ИИ-сообщества и регуляторов.

Как Anthropic планирует бороться:
* Улучшение систем обнаружения подобных атак.
* Обмен данными с другими лабораториями и облачными провайдерами.
* Ужесточение проверки аккаунтов.
* Внедрение технических контрмер, снижающих эффективность дистилляции.

Контекст:
* Это не первое обвинение в адрес DeepSeek. В январе 2025 года её уже подозревали в краже данных у OpenAI.
* Генеральный директор Anthropic Дарио Амодеи готовится к встрече с руководством Пентагона. Компания выступает против использования её ИИ для массовой слежки или создания автономного оружия, что вызвало разногласия с военными.

Другие новости Anthropic:
Компания также запустила ИИ-сканер уязвимостей Claude Code Security. Этот инструмент анализирует код на наличие уязвимостей, которые могли оставаться незамеченными годами. Анонс вызвал падение акций крупнейших компаний кибербезопасности (Palo Alto Networks, CrowdStrike и других) на 12-19% из-за опасений инвесторов перед новым ИИ-конкурентом (явление «AI Ghost Trade»).