ru24.pro
Новости по-русски
Август
2025
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20
21
22
23
24
25
26
27
28
29
30
31

Anthropic запретила использовать свой ИИ для создания ядерного оружия

0

Anthropic обновила политику использования чат-бота Claude, усилив ограничения. Теперь прямо запрещено применять ИИ для разработки биологического, химического, радиационного или ядерного оружия, а также мощных взрывчатых веществ. Ранее в правилах говорилось лишь о запрете на создание оружия и опасных материалов в целом. Теперь список стал более конкретным

В мае, вместе с запуском модели Claude Opus 4, компания внедрила уровень защиты AI Safety Level 3. Он делает систему сложнее для «взлома» и предотвращает её использование при попытках разработки оружия массового поражения.

Anthropic также усилила правила по кибербезопасности. Новый раздел политики прямо запрещает использовать Claude для взлома компьютеров и сетей, поиска уязвимостей, создания вирусов, программ для DDoS-атак и других киберугроз.

Есть и послабления: компания смягчила правила по политическому контенту. Теперь запрет касается только случаев, когда ИИ используется для обмана, вмешательства в выборы или таргетинга избирателей.