Королевский колледж Лондона: ИИ не является нейтральным инструментом, а отражает ценности тех, кто его использует

Профессор Кристофер Марку, эксперт по искусственному интеллекту из Королевского колледжа Лондона, на конференции AI for Good Global Summit 2023 заявил, что ИИ может оказать значительное влияние на базовые права человека: право на жизнь, свободу, равенство и справедливость.

По его словам, сегодня наблюдаются некоторые проблемы в таких плоскостях использования ИИ, как дискриминация, прозрачность, ответственность и участие. Марку подчеркнул, что искусственный интеллект не является нейтральным инструментом, а отражает ценности и предпочтения тех, кто его использует, и поэтому важно учитывать этические и правовые аспекты при разработке и регулировании такого рода софта.

В конце спикер призвал к международному сотрудничеству между всеми заинтересованными сторонами, чтобы обеспечить соблюдение прав человека в эпоху нейросетей.

29 июня, 2023

Подписаться на новости BIS Journal / Медиа группы Авангард

Подписаться
Введите ваш E-mail

Отправляя данную форму вы соглашаетесь с политикой конфиденциальности персональных данных

15.09.2025
Банк России — о необоснованной блокировке счетов физлиц
15.09.2025
С октября в банковских приложениях появится новая антифрод-ступень
15.09.2025
Массовые обзвоны без согласия абонентов запрещены (но не всем)
15.09.2025
CISA запускает дорожную карту программы «Общие уязвимости и риски»
15.09.2025
Пользователей ChatGPT с «типично женскими» никами стало больше, чем с «типично мужскими»
12.09.2025
Албания доверила госзакупки искусственному интеллекту
12.09.2025
На «Госуслугах» теперь можно запретить себе SIM-карту
12.09.2025
Даркнет сам приходит к «Максу»?
12.09.2025
Половина россиян не одобряет блокировку звонков в мессенджерах
12.09.2025
Злоупотребление удалённым доступом — предвестник появления вымогателей

Стать автором BIS Journal

Поля, обозначенные звездочкой, обязательные для заполнения!

Отправляя данную форму вы соглашаетесь с политикой конфиденциальности персональных данных