Google отказалась от обещания не использовать ИИ для создания оружия

Google пересмотрела свою политику и убрала обещание о запрете на использование искусственного интеллекта для разработки оружия. Это решение вызвало широкий общественный резонанс и обсуждения о потенциальных последствиях внедрения ИИ в военные технологии.

Google отказалась от обещания не использовать ИИ для создания оружия

Google убрала обещание не применять ИИ для создания оружия

Компания Google недавно произвела масштабные изменения в своих принципах использования искусственного интеллекта (ИИ), что вызвало широкий резонанс как в технологическом, так и в общественном секторах.

Исторический контекст

Вернемся в 2018 год, когда Google ввела строгие этические принципы после массовых протестов сотрудников против контракта с Пентагоном, который назывался Project Maven. Ссылка на этот проект заключалась в использовании алгоритмов компьютерного зрения для анализа данных, полученных с дронов. Тысячи работников подписали петицию, требуя прекратить участие компании в военных инициативах, и Google откликнулась на их требования, отказавшись не только от контракта, но и пообещав не участвовать в разработке оружия.

Новое обновление принципов

В начале февраля 2025 года Google сделала шаг назад, обновив свои принципы и исключив пункт, который запрещал использование ИИ для создания оружия и слежки. Ранее в документе были четко обозначены технологии, которые компания не собиралась разрабатывать, включая "технологии, способные нанести вред", и "технологии, обеспечивающие сбор данных для разведки с нарушением международных норм".

Комментарии и обоснования

Представители Google заявили, что изменения связаны с намерением компании расширить клиентскую базу, в частности, за счет предоставления своих технологий и услуг правительствам. Они подчеркнули, что "демократические страны должны возглавлять разработку ИИ, следуя ценностям, таким как свобода и уважение прав человека".

Критика и реакция

Удаление этого пункта из этических принципов вызвало критику со стороны экспертов и бывших сотрудников компании. Маргарет Митчелл, ранее руководившая группой по этике ИИ в Google, отметила, что это решение "перечеркнет труды тех, кто работал над этическими стандартами, и активистов внутри компании". Она добавила, что это означает возможность работы Google над технологиями, которые могут угрожать жизни.

Геополитический контекст

Это решение отражает возросшую значимость ИИ в национальной обороне США. Профессор политологии Майкл Горовиц из Пенсильванского университета считает, что такой шаг логичен, так как технологии ИИ становятся ключевыми для Вооруженных Сил. Другие компании, такие как Microsoft, Amazon и OpenAI, уже активно сотрудничают с оборонными подрядчиками США.

Влияние на технологический сектор

Решение Google подчеркивает усиливающиеся связи между технологической индустрией и Министерством обороны. Компании, такие как OpenAI и Palantir, уже заключили контракты с оборонными подрядчиками, что свидетельствует о растущей интеграции ИИ в военные приложения.

Заключение

Удаление обещания о неиспользовании ИИ для оружейных разработок и слежки со стороны Google знаменует собой радикальное изменение в подходе компании к этике. Этот шаг будет иметь значительные последствия для технологического сектора, национальной безопасности и глобальной политики.

Хотите быть в курсе последних новостей о нейросетях и автоматизации? Подпишитесь на наш Telegram-канал: https://t.me/+5AOJYmT1qeM4ZGYy

Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *