На ПМЮФ-2025 был прочитан доклад по материалам исследования ФГУП «ГРЧЦ» и аналитического инструмента TeqViser, проведенного в 2023 году. Его цель состояла в том, чтобы представить реалистичный обзор и наглядно классифицировать передовые решения с использованием ИИ, задействованные в мониторинге интернета и обеспечении безопасности его пользователей. Доклад публикуется в кратком изложении.
В исследовании мы распределили решения на 12 функциональных групп (названых нами в исследовании кластерами), соответствующих технологическим интересам профильных организаций по мониторингу и обеспечению безопасности интернета. Каждый кластер объединяет решения, предназначенные для выполнения задач в конкретном направлении. Так были выделены кластеры:
1. Обнаружение дипфейков
2. Определение контекста происходящего на видео
3. Автоматизация мониторинга и модерации контента
4. Распознавание лиц
5. Извлечение смысла из текста
6. Поддержка фактчекинга
7. Распознавание символики
8. Извлечение и анализ метаданных
9. Распознавание эмоций
10. Поддержка решений при информационных атаках
11. Генерация контента
12. Рекомендация контента
Кластеры были сформированы на основе предварительного анализа релевантной научной литературы, в ходе обсуждения с экспертами.
Следует отметить, что в ходе поиска решений был использован ряд аналитических инструментов, в частности система Teqviser. База данных системы содержит свыше 60 миллионов научных публикаций, не менее 30 миллионов патентов и около 600 тысяч примеров инвестиционных проектов.
Несмотря на значительные различия в технических особенностях работы решений в каждом кластере, существует ряд универсальных положений, которые были подтверждены или обнаружены в ходе исследования:
1. В России есть экспертиза для создания отечественных датасетов и моделей, но не хватает вычислительных мощностей, инфраструктуры и кооперации между ключевыми стейкхолдерами. Ситуация осложняется тем, что в России на данный момент недостаточно развито производство высококачественного, мощного вычислительного оборудования. Несмотря на это, в России есть крайне качественные решения, особенно это касается распознавания лиц и работы с информационными атаками.
2. Китай и США лидируют с большим отрывом в существенной части кластеров. Несмотря на то, что эти страны имеют значительные различия как в направлении исследований и разработок, таки в тактическом подходе, в обеих странах развито сотрудничество государственных организаций с коммерческими.
3. Из-за автоматизации информационных войн и развития генеративных моделей будет крайне проблематично обеспечить когнитивную безопасность населения без внедрения искусственного интеллекта.
4. Наличие отечественных моделей и их внедрение, а также использование отечественных датасетов — вопрос национальной безопасности, так как зарубежные акторы способны экспортировать искусственный интеллект, который будет им подконтролен после передачи клиенту.
5. Разработка процедур тестирования и оценки моделей — важная инфраструктурная задача, которая позволит государству держать руку на пульсе развития технологий, отслеживать перспективных разработчиков и проекты.
6. Существенная доля моделей представляет собой «чёрный ящик» — из-за огромного объёма параметров крайне сложно определить, как именно эти модели принимают свои решения. Это представляет угрозу в случае внедрения зарубежных моделей, использования зарубежными датасетами и разработки некачественных моделей.
7. Регуляторика в большинстве стран не успевает за скоростью развития технологий. Это относится к большой доле кластеров, начиная с генеративных алгоритмов, регуляция которых всё ещё не достигла должной детализации, и заканчивая самими датасетами, подход к наполнению и использованию которых во многих странах остается на совести самих разработчиков.
8. Искусственный интеллект значительно обогнал человека в объёме и скорости обработки данных, способности распознавать малозаметные паттерны и сравнивать образцы с большими объёмами информации. На данный момент искусственный интеллект всё ещё далек от реального понимания контекста и культурных нюансов, чем нередко пользуются злоумышленники.
Кластер №1. Обнаружение дипфейков
Контекст:
1. Человек не способен эффективно распознавать дипфейки
Исследование Сиднейского института нейрологии постановило, что мозг может распознать дипфейки в 54% случаев, но сознательно человек определяет их лишь в 37% случаев, при этом можно с уверенностью сказать, что с дальнейшим развитием технологии обе цифры будут уменьшаться. Исследование Sentinel Analysis показало, что в YouTube отредактированные таким образом видео набрали более 5 млрд просмотров, а в TikTok более 65 млн. Производимый объём дипфейков и низкий процент их распознавания обывателем говорят о том, что людей нецелесообразно использовать для идентификации дипфейков.
2. Дипфейки — многозадачный инструмент для злоумышленников
Дипфейки и другие способы редактирования изображений с помощью ИИ представляют собой угрозу для систем аутентификации, а также института репутации и распространения правдивой информации в целом. Зарегистрированы случаи использования дипфейков мошенниками для обхода биометрических систем, создания злоумышленниками аккаунтов несуществующих людей, шантажа, производства нелегального контента, проведения мошеннических кампаний от имени известных лиц, подкрепления клеветы ложными доказательствами.
3. Алгоритмы для создания дипфейков оставляют артефакты
Самые простые из них буквально оставляют следы, заметные невооружённому глазу. Тем не менее, для того чтобы идентифицировать дипфейк как таковой, человеку нужно обладать необходимыми техническими знаниями и разглядеть эти следы. Наиболее совершенные алгоритмы всё равно имеют проблемы с симуляцией тонких особенностей фотографий и видео: текстурами кожи, цветом лица, геометрией головы человека, динамикой изменения этих параметров в связи с сердцебиением и дыханием или поворотами головы в нетипичных ракурсах.
Выводы:
1. Гражданам нужен простой и понятный способ определения дипфейков
2. Государствам нужен собственный инструментарий для идентификации дипфейков
3. Законы о подделках, произведённых ИИ, недостаточно развиты, а решения по обнаружению дипфейков не используются в судебных процессах
Кластер №2. Определение контекста происходящего на видео
Контекст:
1. ИИ не понимает смысл
Несмотря на рывок в разработке инструментов, понятны некоторые ограничения в работе ИИ. ИИ в большинстве своем не способен осознавать полный контекст происходящего. Система может обрабатывать огромное количество файлов в секунду, но не способна понимать их настоящий смысл.
2. Проблемы в этике и производительности
Существуют проблемы в этике и производительности, которые ещё не разрешены. Обычные системы распознавания объектов и действий не всегда могут поддерживать модерацию контента на платформах из-за ограничений в их способности точно распознавать смысл сигналов и образов на видео.
3. Высокая вероятность ошибки при работе с неоднозначными ситуациями
Формы и объекты в файлах могут быть вторичны для злоумышленников, а смысл, обозначенный в рамках их субкультуры — первичен. Один и тот же файл может быть шуткой или рекомендацией к суициду. В таком случае обычные системы модерации имеют сниженную чувствительность. Например, несмотря на наличие инструментов для автоматической модерации у видеоплатформ, внешне безопасный контент со взрослым подтекстом регулярно просачивается в детские разделы. Злоумышленники намеренно скрывают реальный смысл своих видео, чтобы обойти ИИ-фильтры и попасть в детский сегмент.
Выводы:
1. На рынке существуют прикладные и коммерческие решения, но рынок ещё не насыщен. Кроме того, открываются новые перспективные направления разработок
2.Для улучшения результатов и оптимизации некоторые системы целиком или частично полагаются на обработку метаданных и данных, окружающих видеофайл
3. В будущем ИИ сможет понимать не только контекст происходящего на видео, но и нюансы его производства
Кластер №3. Автоматизация мониторинга и модерации контента
Контекст:
1. Поток контента на разных платформах стало сложно контролировать
Эта проблема усиливается с развитием интернета и ростом аудитории соцсетей. Несмотря на то, что большая часть публикуемой информации безвредна, в её потоке может появляться контент, легальность которого разнится в зависимости от страны. Уже сейчас каждый день публикуется 500 млн твитов.
2. Соцсети вынуждены прибегать к услугам платных модераторов или добровольцев
Так, Facebook оплачивает услуги около 15–30 тыс. модераторов, а Twitch отдает модерацию в руки самих создателей контента, но рекомендует, чтобы на 200 зрителей был хотя бы один модератор.
3. Незаконный контент опасен и для пользователей, и для модераторов
Модераторы Facebook жаловались на ПТСР, профессиональную деформацию и другие проблемы психологического характера. В 2020 году, в ходе судебного иска, компании пришлось заплатить более $50 млн нанятым модераторам.
4. Автоматизация не способна справиться со всеми угрозами
Существенная часть нежелательных сообщений и постов может быть обнаружена только благодаря пользователям — нейросети не всегда успевают за развитием меметического ландшафта, не понимают весь сленг.
5. Использования только ручной модерации недостаточно
Тем не менее многие исследования указывают на то, что исключительно ручная модерация в масштабах целой соцсети силами постоянных рабочих, у которых нет поддержки — несовершенный подход к модерации.
6. Преступники активно противодействуют
Сообщества преступников также могут развивать собственный жаргон или намеренно деформировать свои сообщения, шифровать контент, компартментализировать передачу информации, чтобы не попадать под баны и не быть обнаруженными ИИ.
Выводы:
1. Модерация в реальном времени — вызов на ближайшие 5–10 лет
2. Автоматизация может достигнуть степени, при которой штат сотрудников станет минимален, а модераторы контента станут операторами ИИ-систем
3. Непрозрачность работы алгоритмов и политики модерации платформ приводят к конфликтам как с сообществами пользователей, так и с государствами
Кластер №4. Распознавание лиц
Контекст:
1. ИИ превосходит человека в точности распознавания лиц
ИИ превзошёл человека в точности распознавания лиц: человек способен распознавать лица с точностью до 97,53 %, тогда как существуют системы, чья точность превышает 99%.
Количество лиц, которые может распознать средний человек, ограничивается 5 тыс., в то время как ИИ способен распознавать лица из базы в сотни миллионов лиц.
2. Распознавание лиц внедряется повсеместно
Внедрение ИИ для распознавания лиц позволило значительно улучшить процедуры идентификации, ускорить поиск пропавших людей, а также снизить частоту мелких преступлений и повысить безопасность в аэропортах, банках и других публичных местах.
С удешевлением технологии и её коммерциализацией, она стала использоваться не только для обеспечения безопасности, но и в бытовых, повседневных процессах: разблокировка смартфонов, оплата счёта, отслеживание здоровья и допуск к покупке продуктов с возрастным ограничением. В результате появляются огромные архивы, содержащие снимки лиц граждан.
3. Внедрение и развитие ИИ по распознаванию лиц происходит неравномерно
У кластера распознавания лиц весьма сильна региональная специфика. Так как технология уже привлекла значительное внимание со стороны широкой публики, некоторые страны начали активно её регулировать, вследствие чего разработка новых решений либо замедлилась, либо проводится с учётом новых нормативов. При этом страны, в которых регуляторика отстаёт от развития технологий или оставляет широкое пространство для интерпретации, способны достигать серьёзных прорывов в этой области.
Выводы:
1. Существующие решения обошли человека в эффективности и вытеснили его из участия в некоторых задачах
2. Преступники будут искать методы по обману систем распознавания
3. В России существуют компании, способные разрабатывать решения международного уровня
4. Массивы биометрических данных — риск для граждан
5. Техногиганты готовят почву для прорывных разработок
6. Использование зарубежных датасетов и нейросетей — вопрос национальной безопасности
Кластер №5. Извлечение смысла из текста
Контекст:
1. Системы для распознавания смысла имеют широкий спектр сложности и глубины
Самыми простыми из таких систем можно считать те, что определяют тональность текста по количеству и морфологии слов. В то же время, существуют модели с сотнями миллионов и даже десятками миллиардов параметров, которые ориентируются на куда более сложные паттерны при анализе текста.
К таким системам можно отнести ChatGPT, LaMDA, BERT, BLOOM и GPT-3, которые называются «большими языковыми моделями». Их функционал куда более широкий, и они осмысляют язык более глубоко, но требуют значительных вычислительных мощностей и крупных датасетов для тренировки.
2. Системы работают быстрее человека, но отстают в глубине понимания смысла
Скорость, с которой модель способна считывать текст и распознавать его смысл, зависит от аппаратуры, как и объём обрабатываемой информации. Это даёт моделям для распознавания смысла серьёзное преимущество перед человеком: они могут масштабироваться, пока на это хватает денег. Тем не менее они не способны осмыслять текст так же глубоко, как обычный человек. Чем более абстрактный вывод требуется от модели, и чем сложнее контекст, окружающий текст, тем ниже её точность.
3. От разработок в области осмысления текста зависят решения в других кластерах
Извлечение смысла из текста и работа с текстом как таковая либо синергируют с остальными кластерами, либо напрямую позволяют им существовать. Так, например, без обработки текста и его смысла, рекомендательные системы оставались бы на примитивном уровне, а системы для модерации никогда бы не продвинулись дальше блокировки конкретных фраз. Системы для извлечения смысла из текста могут служить мощным дополнением к алгоритмам других кластеров или помогать с оптимизацией нагрузки на оборудование.
Выводы:
1. Большинство подобных систем используется для анализа документации, обработки отзывов и модерации
2. Решения способны работать в реальном времени и достаточно экономны в плане требований к аппаратной базе
3. Злоумышленники могут манипулировать системой, создавая видимость трендов или информационный шум
Кластер №6. Поддержка фактчекинга
Контекст:
1. Объём контента и скорость его создания возросли, человек не справляется
В России более 274 тыс. блогеров с аудиторией от 100 тыс. человек. Более тысячи из них имеют аудиторию свыше миллиона. Также существует около 60 тыс. зарегистрированных СМИ. Не все из них проверяют информацию, которую распространяют. За фактчекингом обычно стоит расследование с привлечением экспертов и подробной проверкой фактов. Из-за объёма контента и кропотливости работы требуется автоматизация данного процесса.
2. ИИ не может исследовать новость глубоко
В отличие от человека, ИИ способен охватить большой объём распространяемых новостей и достаточно быстро их обработать. Но ИИ не всегда понимает контекст и не может исследовать новость так же глубоко, как человек. Также ИИ не всегда корректно обучен и может отталкиваться от ограниченного и поверхностного анализа в своих решениях.
3. Постправда значительно повышает ущерб от дезинформации
Так как в эпоху постправды ценность заявлений смещается от фактической верности к эмоциональному эффекту и стыковке с субъективными убеждениями аудитории, распространять дезинформацию стало гораздо проще, а эффект от распространения увеличился. Так, с 2020 г. по середину мая 2021 г., по данным РАНХиГС и НЦМУ, было зафиксировано более 6 млн постов и репостов с дезинформацией о пандемии коронавируса.
Выводы:
1. На данный момент полностью положиться на ИИ в фактчекинге нельзя, можно лишь автоматизировать часть процессов
2. Разработчики выстраивают системы для обработки мультимодального контента, состоящие из нескольких нейросетей
3. Системы приближаются к фактчекингу в реальном времени и будут интегрированы в соцсети
4. Системы для фактчекинга находятся на раннем этапе развития и будут массово внедрены только через 3–5 лет
5. Внедрение автоматизированного фактчекинга приведёт к тому, что каждая новость будет размечена специальными тегами на крупных платформах
Кластер №7. Распознавание символики
Контекст:
1. Открытые разработки для распознавания нежелательной символики — редкость
В распознавании символов большинство задач решены, но государства и корпорации редко оповещают широкую публику о том, как они используют технологию в борьбе с маргинальными идеологиями. Исключение составляет ИИ, разработанный для модерации соцсетей. Но в таких случаях нейросеть тренируется не только для поиска экстремистской символики, но и для поиска другого нежелательного контента. Такие нейросети не предназначены для распознавания символики вне соцсетей, например на баннерах во время протестов.
2. Нежелательная символика эволюционирует
Одной из ключевых проблем в разработке решений является постоянное развитие маргинальных движений и их символики. При появлении нового движения радикалов или изменении в идеологии уже существующего, символика меняется. Она также эволюционирует при реакции движения на разные инфоповоды. При этом радикалы понимают, что публикация их символики на открытых платформах и её демонстрация в реальной жизни приведёт к ответным действиям правоохранительных органов, а потому принимают соответствующие меры.
3. Смысл символа зависит от локального культурного контекста
Для корректного распознавания маргинальной символики человеку требуется экспертиза в маргинальных движениях и их локальной специфике. Так, для человека из Индии знак африканской группировки Боко Харам не будет значить ничего, а использование свастики в религиозном контексте является нормой. Попытка масштабировать систему обнаружения маргинальной символики без использования ИИ обречена на провал из-за многообразия символов и их связи с локальной культурой.
Выводы:
1. Технологии находятся на высоком уровне развития, но не всегда подходят для решения задач в России
2. Решения движутся к предсказанию смысла символов, определению смысла их комбинаций и взаимодействий
3. Системы для обнаружения нежелательной символики должны быть мультимодальны
Кластер №8. Извлечение и анализ метаданных
Контекст:
1. Метаданные активно используются в криминалистике
Так как злоумышленники оставляют цифровые следы, метаданные стали объектом интереса криминалистов. Ранее экспертам приходилось самостоятельно анализировать время создания файлов и их редактирования, логи сетевых пакетов и работы программ, геоданные, информацию об аппаратуре, с помощью которой был создан файл и другие виды метаданных. Всё это занимало нецелесообразное количество времени. ИИ для анализа метаданных развивался при сильном влиянии со стороны нужд киберкриминалистики, поэтому её задачи во многом были решены.
2. ИИ может заполнять пробелы в метаданных по косвенным признакам
Техногиганты занимаются разработкой ИИ, предназначенного для работы с большими данными, в частности, для обогащения метаданных и управления ими. Это позволяет упорядочить крупные базы данных и более эффективно ими распоряжаться. ИИ способен воспроизводить и восстанавливать метаданные для файла, чьи метаданные были отредактированы или удалены.
3. Тренд на мультимодальность ИИ зависит от инноваций в работе с метаданными
Именно метаданные позволяют системам анализировать файлы разных форматов и информацию разных видов. Системы способны соединять и анализировать результаты работы разных модулей именно потому, что эти модули производят специальные виды метаданных, например, векторы, которые в дальнейшем отправляются на анализ главным модулям.
Выводы:
1. Системы для автоматизированного обогащения метаданных позволят создавать синтетические датасеты, что ускорит разработку ИИ
2. ИИ для обработки метаданных выводит криминалистику на новый уровень
3. Анализ метаданных позволяет значительно экономить вычислительные мощности при решении ряда задач
4. Техногиганты создают универсальные системы для обработки метаданных в промышленных масштабах
Кластер №9. Распознавание эмоций
Контекст:
1. ИИ для распознавания эмоций — технология с множеством назначений
Многие из этих решений могут быть в дальнейшем использованы для развития нейронаук, в образовании, маркетинговых и информационных кампаниях, медицине, а также становиться инструментами правоохранительных органов. Распознавание эмоций может быть встроено в большинство процессов, в которых требуется мониторинг состояния человека или улучшение взаимодействия между человеком и машиной.
2. ИИ позволяет осуществлять распознавание эмоций мультимодально
До значительного рывка в развитии ИИ способы ручного и автоматического распознавания эмоций были унимодальны. То есть большинство из них задействовало либо речь, либо мимику, либо голос человека, потому что анализ нескольких модальностей был бы слишком трудозатратен. В психологии эмоций было сложно проверить некоторые гипотезы и теории без использования ИИ. Эта проблема постепенно решается, так как разработчики предоставляют учёным всё более совершенные решения, а учёные обновляют теоретическую базу для этих решений.
3. Распознавание эмоций позволит ИИ лучше понимать мышление человека
Эмоции человека могут говорить ИИ о его реакции на тот или иной стимул. Это позволит, во-первых, понять, как человек по-настоящему относится к чему-либо, а во-вторых, поможет предсказывать действия человека и его намерения. Эмоции частично ответственны за часть решений, принимаемых людьми, поэтому учёт эмоций в предсказании поступков как отдельного человека, так и групп людей, играет важную роль. Кроме того, так как люди вкладывают эмоции в медиаконтент и испытывают их при его потреблении и производстве, — эмоции являются неотъемлемым элементом контекста.
Выводы:
1. Использование и разработка прикладных решений для распознавания эмоций приведёт к переоценке существующих теорий в психологии и прорыву в нейронауках
2. Использование иностранными компаниями ИИ для распознавания эмоций и сбор получаемых от такого ИИ данных — угроза когнитивной безопасности
3. Распознавание эмоций будет повсеместно внедряться в качестве поддержки для ИИ, которые взаимодействуют с человеком или анализируют его деятельность
4. Эмоции, испытываемые человеком, оказывают косвенное и прямое влияние на его действия
Кластер №10. Поддержка решений при информационных атаках
Контекст:
1. Социальная кибербезопасность — новая инженерно-социологическая наука
Она находится на стыке IT и социологии. Причинами её появления являются переход информационных войн в киберпространство и автоматизация систем для создания и доставки пропаганды. Дисциплину учредили в Национальных Академиях наук США. Боты, наёмные команды «троллей», новые формы пропаганды, манипуляция вирусными инфоповодами, дипфейки — малая часть инструментов, использующихся в современных информационных войнах. Задачей новой науки является исследование этих инструментов, предсказание их влияния на человеческое поведение и разработка методов по сопротивлению.
2. Инициаторами являются организации, но в процессе к ним подключаются люди
Успешная информационная кампания всегда начинается с государственной или частной организации, у которой есть ресурсы, специалисты и инструменты. В ходе кампании к нарративу начинают подключаться люди, которые могут не осознавать искусственности инфоповодов. Одной из главных задач злоумышленников является не только изменить взгляды общества, но и выдать изменение за естественное. Поэтому многие системы для борьбы с информационными атаками направлены на их обнаружение и сбор доказательств искусственности повествования.
3. ИИ для борьбы с информационными атаками коммерциализирован
На рынке существует 2 сегмента: для частных компаний и для специальных нужд государств. Первый сегмент используется абсолютным большинством крупных компаний для работы с атаками на их бренды. Решения из первой категории нередко адаптируются для работы с государствами. В некоторых случаях, частные компании создают решения, предназначенные для государственных нужд, с нуля.
Выводы:
1. В России есть качественные коммерческие решения
2. Системы для анализа информационных атак — технологии двойного назначения, которые можно использовать для планирования информационных атак
3. Часть участников информационных кампаний — обыватели, которые не осознают своей роли в планах злоумышленников
4. Многие зарубежные системы разрабатываются для отражения возможных российских информационных атак
5. Системы зависят от экспертов из-за динамичности языка и инфоповодов
6. Крупнейшие платформы уже накопили большой объём сигнатур информационных атак и продолжают пополнять свои архивы
Кластер №11. Генерация контента
Контекст:
1. Создаваемый пользователями контент может выйти из-под контроля
Генеративные алгоритмы предоставят обывателям инструменты для производства контента во многих форматах. Такой контент не всегда будет высокого качества, но его объёмы будут беспрецедентны, и часть контента будет незаконной. Несмотря на то, что разработчики борются с некоторыми видами нежелательного использования собственных алгоритмов, их защита регулярно обходится злоумышленниками с достаточной технической экспертизой. Генеративные алгоритмы использовались в информационных атаках и производстве нелегального контента. По мнению эксперта Нины Шик, на чью книгу Интерпол ссылается в своём отчёте, к 2026 г. около 90% контента в Интернете будет сгенерировано либо полностью, либо при значительном участии ИИ.
2. Генеративные алгоритмы значительно изменят социальные взаимодействия
При некорректном использовании, отсутствии контрмер и полном отсутствии контроля над генеративными алгоритмами, они не только поставят общество в ситуацию, где объём производимого контента многократно превосходит возможности модерации, но и поменяют само общение людей, а также то, как люди воспринимают контент. Появится избыток контента, сложно будет определить, что сделано реальным человеком, а что роботом, не понимающим контекст. Производители контента начнут конструировать контекст вокруг продуктов деятельности нейросетей, а некоторые уязвимые люди сформируют парасоциальные отношения с ИИ.
3. Генеративные алгоритмы — ключ к гиперкастомизации контента
Генерация контента нейросетями по заданным параметрам способствует ранее недостижимому уровню персонализации. Уже сегодня существует большое количество решений, лежащих в открытом доступе, при помощи которых можно создать текст, изображение или видео, основываясь только на предпочтениях пользователя. В будущем с повышением качества такого контента ожидаемо глобальное изменение экономического ландшафта сферы услуг. Такой контент будет потребляться пользователями ежедневно и соответствовать их требованиям вне зависимости от этичности запросов пользователя.
4. Высокое качество контента, созданного ИИ
Многие системы генерации контента сегодня осуществляют полный цикл создания текста, изображения или видео без вмешательства в процесс человека. С развитием технологий и повышением их доступности, растёт и качество контента, создаваемого нейронными сетями. Наибольшую сложность для обывателя составляют тексты, написанные при помощи ИИ. Изображения и видео на данный момент ещё содержат часть артефактов, видных технически подкованному человеку, однако количество таких признаков стремительно падает.
5. Возможности генеративных алгоритмов не ограничиваются медиаконтентом
Генеративные алгоритмы имеют крайне высокий подрывной потенциал во всех сферах жизнедеятельности человека. ИИ уже сейчас способен находить новые химические формулы для сплавов, лекарств, наркотиков и ядов, проектировать здания, а Управление перспективных исследовательских проектов Министерства обороны США работает над ИИ, который сможет находить слабые места в боевой технике по чертежам — следующим шагом будет создание ИИ, способного предлагать альтернативный подход к структуре, например танка, боеголовки или крейсера. Сложно предположить, какая область и индустрия не будут затронуты развитием генеративных алгоритмов.
Выводы:
1. Не во всех странах регуляторика готова к генеративным алгоритмам
2. Разработчики пытаются ограничить собственные решения, но не всегда успешно
3. Генеративные алгоритмы — технология двойного назначения
4. ИИ способен быть отличным инструментом и ассистентом, но создатель из него посредственный
5. Автоматическая генерация новостей коммерциализируется уже сейчас, но не регулируется отдельно
6. Генеративные алгоритмы помогают во всех стадиях производства контента
Кластер №12. Рекомендация контента
Контекст:
1. Рекомендательные системы — в первую очередь системы для фильтрации контента
В глобализированном мире с огромными объёмами данных, производимых и распространяемых в Интернете, рекомендательные системы служат в первую очередь для того, чтобы человек мог точнее осуществлять поиск нужной ему информации. Контента слишком много, и простой поиск с применением ключевых слов не обязательно приведёт пользователя к желаемому результату. Поэтому главной функцией рекомендательных систем является отсечение нерелевантных результатов, которые пользователю не нужны.
2. Три главных вида рекомендательных алгоритмов
К наиболее распространённым видам алгоритмов для рекомендации относятся методы коллаборативной фильтрации, основанные на контенте алгоритмы и гибридные алгоритмы. Ранее также использовались неперсонализированные алгоритмы и системы, базирующиеся на матричном разложении, но со временем они утратили свою актуальность и в какой-то мере были вытеснены контентно-ориентированными алгоритмами. Контентно-ориентированные алгоритмы стали особенно популярны в связи с тем, что они широко используются для рекомендаций в соцсетях.
3. Рекомендательные алгоритмы неразрывно связаны со сбором данных о пользователях
Так как рекомендательные алгоритмы пытаются предсказать, чего захочет пользователь, исходя из имеющихся у них данных, их можно отнести к предиктивной аналитике. Для предсказания желаний пользователя алгоритмам требуется информация о пользователе и о контенте. Чем детальнее информация, тем точнее будет работать алгоритм. Возникает проблема с приватностью: так как алгоритмы используются в рекламе, корпорациям нужно собирать как можно больше информации о людях. При этом человек не может ориентироваться в разнообразии товаров и контента самостоятельно, поэтому он вынужден отдавать свои данные.
4. Рекомендательные системы ждут обывателей на каждом шагу
В последние пять лет рекомендательные системы удерживают лидирующие позиции среди всех инструментов, базирующихся на ИИ. На 1 декабря 2022 г. существует больше 360 тыс. активных патентов, связанных с рекомендательными системами. Они являются незаменимым элементом для соцсетей, ритейла, онлайн-банкинга, поисковых сервисов и т. д. Будучи одними из наименее требовательных к вычисли
Отправляя данную форму вы соглашаетесь с политикой конфиденциальности персональных данных
Отправляя данную форму вы соглашаетесь с политикой конфиденциальности персональных данных