Технологический гигант изменил политику и больше не исключает применение искусственного интеллекта для разработки оружия и систем наблюдения, сообщает El.kz. Об этом сообщило издание The Washington Post.
Компания Google пересмотрела свою политику использования искусственного интеллекта, убрав запрет на его применение в военных и разведывательных проектах. В обновленном отчете за 2025 год больше нет пунктов, запрещающих разработку ИИ для слежки, создания оружия и других потенциально опасных целей.
Руководители Google Демис Хассабис и Джеймс Манику пояснили, что решение обусловлено глобальной конкуренцией за лидерство в области ИИ. Они отметили, что развитие технологий требует пересмотра прежних принципов, а демократические страны должны иметь равные возможности в использовании искусственного интеллекта.
В компании подчеркнули, что разработка ИИ будет вестись в партнерстве с правительствами и организациями, разделяющими ценности свободы, равенства и уважения прав человека. Однако отказ от прежних ограничений вызвал критику со стороны правозащитников.
Организация Human Rights Watch выразила обеспокоенность, заявив, что использование ИИ в военных конфликтах усложняет контроль за принятием решений и повышает риск жертв среди мирного населения. Bloomberg также отметил, что автоматизированные системы могут ускорить эскалацию вооруженных конфликтов, не оставляя времени на дипломатические меры.
Ранее Google уже сталкивался с протестами сотрудников из-за сотрудничества с военными. В 2017 году работники компании добились отказа от контракта Maven с Пентагоном, который предусматривал разработку ИИ для анализа видеозаписей с дронов. В 2023 году сотрудники протестовали против проекта Nimbus — партнерства с правительством Израиля, но Google продолжил работу над этим проектом.
Сегодня крупнейшие технологические компании все активнее вовлекаются в сферу оборонных технологий. OpenAI сотрудничает с Anduril Industries, а Anthropic заключил партнерство с Palantir Technologies, специализирующейся на анализе данных для военных структур.