Google откатила обещание не использовать ИИ-технологии в военных целях — это обязательство ещё неделю назад присутствовало в блоке «Приложения, которые мы не будем развивать» раздела «Принципы» официального сайта компании.

Комментируя изменения для СМИ, Google отсылает в свой блог, где одна из последних записей гласит: «Компании, правительства и организации, разделяющие эти ценности, должны работать вместе над созданием ИИ, который защищает людей, способствует глобальному росту и поддерживает национальную безопасность».

Помимо этого, в направлении нейросетей техгигант пообещал работать над «смягчением непреднамеренных или вредных последствий и предотвращением несправедливой предвзятости».

Ранее среди специалистов Google возник раскол на почве того, что компания предоставляет облачные сервисы не только американским, но и израильским военным.

5 февраля, 2025

Подписаться на новости BIS Journal / Медиа группы Авангард

Подписаться
Введите ваш E-mail

Отправляя данную форму вы соглашаетесь с политикой конфиденциальности персональных данных

23.05.2025
«Т-Банк»: Скамеры зовут россиян в мир безбумажности
23.05.2025
Бизнес обяжут поддержать электронное правительство (?)
23.05.2025
Группа «ДОМ.РФ» и Positive Technologies объединят усилия в сфере кибербезопасности
23.05.2025
PT поможет ведущим вузам Индонезии в подготовке ИБ-кадров
23.05.2025
«Такие диалоги безопасны». Россияне дистанцируются даже в рамках ДБО
23.05.2025
Лондон принуждает компании безопасно избавляться от старых ИТ-активов
22.05.2025
Выставка ЦИПР будет открыта для бесплатного посещения 5 июня
22.05.2025
AVSOFT и АМТ-ГРУП представили совместное решение для защиты критически важной ИТ-инфраструктуры от целенаправленных атак
22.05.2025
Data Award 2025: какие data-решения получили высшую экспертную оценку
22.05.2025
«Антидропперский» лимит на банковских картах: отпугнёт или защитит?

Стать автором BIS Journal

Поля, обозначенные звездочкой, обязательные для заполнения!

Отправляя данную форму вы соглашаетесь с политикой конфиденциальности персональных данных