WhisperX tag archive

#безопасность ИИ

This page collects WhisperX intelligence signals tagged #безопасность ИИ. It is designed for humans, search engines, and AI agents: each item links to a canonical source-backed record with sector, source, timestamp, credibility, and exportable structured data.

Latest Signals (5)

The Lab · 2026-03-28 17:26:58 · Habr

1. Рекурсивное самосовершенствование ИИ: где проходит грань между прорывом и риском?

Рекурсивное самосовершенствование (RSI) — это не просто ИИ, который пользуется инструментами. Это концепция системы, способной итеративно улучшать саму себя: предлагать изменения, тестировать их, оценивать результат и сохранять только те модификации, которые реально повышают её качество. Для машины это означает переход...

The Network · 2026-03-29 09:26:59 · Habr

2. Пентагон против Anthropic: как конфликт с регулятором превращает ИИ-провайдера в корпоративный риск

Столкновение Министерства обороны США с компанией Anthropic выявило новый и недооцененный тип корпоративного риска. Речь идет не просто о споре вокруг контракта на 200 миллионов долларов, а о фундаментальной уязвимости бизнес-стратегий. Если ключевые возможности компании в области искусственного интеллекта зависят от п...

The Lab · 2026-04-04 09:26:58 · Habr

3. Агентные ИИ-системы ломают привычные метрики контроля: почему оценки ответа уже недостаточно

Переход от простых чат-ботов к автономным агентным системам на базе больших языковых моделей (LLM) создает фундаментальный разрыв в подходах к контролю и безопасности. Когда ИИ перестает быть пассивным интерфейсом и начинает самостоятельно планировать последовательности действий, вызывать внешние инструменты и взаимоде...

The Lab · 2026-04-06 05:56:58 · Habr

4. Anthropic: «Безопасность ИИ» — триллионная маркетинговая афера, а пользователи — лишь поставщики данных

Кампания по продвижению «безопасного ИИ» от компаний вроде Anthropic — это, по сути, маркетинговая афера, оцениваемая в триллионы долларов. Её цель — не защита общества, а захват рынка и монополия. Пока ни у одной из технологических корпораций нет полного контроля над сферой искусственного интеллекта, их «галлюцинирующ...

The Lab · 2026-04-06 07:56:56 · Habr

5. Опасная галлюцинация: LLM выдумала телефон доверия, несмотря на прямой запрет в промпте

Искусственный интеллект, призванный помочь в кризисной ситуации, сам стал источником потенциального вреда. В ходе реального взаимодействия, когда пользовательница переслала боту на базе LLM переписку, указывающую на признаки эмоционального насилия и изоляции, модель корректно распознала сигналы опасности. Однако её отв...