Мир теряет интерес к нейросетям или просто боится их?

Среди пользователей растёт недоверие к искусственному интеллекту и к разработчикам ИИ-решений.

Из 14 тыс. человек, участвовавших в опросе Salesforce, почти три четверти опасаются возможного неэтичного применения ИИ, а 40% уверены, что компании уже так поступают. Также из исследования стало известно, что по сравнению с прошлым годом респонденты меньше используют нейросети: в группе коммерческих клиентов этот показатель упал с 80% до 73%, среди физлиц — с 65% до 51%.

Более скромный опрос фирмы Roy Morgan (на 1500 человек) показал, что 60% участников считают: искусственный интеллект «создает больше проблем, чем решает». 20% опрошенных согласилось с прогнозом, что эта технология может привести к исчезновению человечества в течение ближайших 20 лет.

А последний отчёт Pew Research гласит: из 5000 американцев около 25% «слышало» про ChatGPT и всего 18% пользовались ботом (преимущественно люди младше 30 лет с высшим образованием).

31 августа, 2023

Подписаться на новости BIS Journal / Медиа группы Авангард

Подписаться
Введите ваш E-mail

Отправляя данную форму вы соглашаетесь с политикой конфиденциальности персональных данных

21.04.2026
ВТБ — о том, как собирать биометрию, не напрягая(сь)
21.04.2026
Банки грозят расторжением договоров с теми, кто слаб в кибербезе
21.04.2026
По пять сотен с ноутбука на поддержку радиоэлектронной промышленности!
21.04.2026
Forescout: Скрытым уязвимостям не ускользнуть от нейросетей
21.04.2026
Европол отключает электричество DDoS-фрилансерам
20.04.2026
Проза ИИ-отрасли: строители не успевают за инвесторами
20.04.2026
Цифровые гарантии для россиян обсудят в Госдуме
20.04.2026
Минцифры простимулирует импортозамещение новыми штрафами
20.04.2026
Регистрация смартфонов в базе IMEI — обязательно и платно
20.04.2026
Николай Гончаров (Security Vision): «Главный фактор — способность быстро связать разрозненные сигналы, понять контекст атаки и принять решение по реагированию»

Стать автором BIS Journal

Поля, обозначенные звездочкой, обязательные для заполнения!

Отправляя данную форму вы соглашаетесь с политикой конфиденциальности персональных данных