По прогнозам Gartner, к 2030 году более 40% организаций в мире столкнётся с киберинцидентами из-за использования неавторизованных инструментов ИИ. Опрос руководителей ИБ-отделов показал, что 69% из них имеет доказательства или подозревает, что сотрудники используют общедоступный GenAI на работе.
Эксперты предупреждают, что такое поведение может увеличить риск потери интеллектуальной собственности, компрометации данных и других проблем безопасности и соответствия требованиям. Ещё в 2023 году Samsung была вынуждена запретить использование нейросетей внутри компании после того, как персонал поделился исходным кодом и протоколами совещаний с ChatGPT.
«Чтобы устранить эти риски, ИТ-директорам следует определить чёткие общекорпоративные политики использования инструментов ИИ, проводить регулярные аудиты на предмет их теневой активности и включить оценку рисков GenAI в свои процессы оценки SaaS-решений», — заявил аналитик Арун Чандрасекаран.
Выводы Gartner совпадают с результатами нескольких аналогичных исследований.
В прошлом году специалисты из Strategy Insights сообщили, что более трети организаций в США, Великобритании, Германии, странах Северной Европы и Бенилюкса столкнулось с трудностями при отслеживании несанкционированного использования ботов. Тогда же RiverSafe заявила, что у пятой части британских компаний конфиденциальные корпоративные данные предположительно были раскрыты из-за применения сотрудниками ИИ.
В Gartner предупредили, что даже законное использование нейросетей может иметь непредвиденные последствия: к 2030 году 50% предприятий столкнутся с задержками в обновлении инструментов этого класса и/или ростом затрат на обслуживание из-за неуправляемого технического долга. Задержка в обновлении, в частности, может создавать риски безопасности, если не управлять ею должным образом.
Арун Чандрасекаран заострил внимание на замыкании в экосистеме и снижении квалификации, которые могут возникнуть в результате чрезмерно активного использования GenAI: «Чтобы предотвратить постепенную потерю корпоративной памяти и возможностей, организациям следует определить, где человеческие суждения и мастерство имеют решающее значение, и разрабатывать решения на основе ИИ, которые дополняют, а не заменяют эти навыки».
Усам Оздемиров







