Кибербезопасность в эпоху искусственного интеллекта: новые правовые вызовы
- Нургуль Кубанова

- 7 часов назад
- 3 мин. чтения

В современную эпоху глобализации стремительное развитие информационных технологий коренным образом трансформирует все сферы общественных отношений. Технологии искусственного интеллекта, стоящие в центре этого процесса, подарили человечеству беспрецедентные возможности, но в то же время значительно осложнили криминогенную ситуацию в киберпространстве. Сегодня искусственный интеллект является не только инновационным инструментом, но и превращается в высокотехнологичное оружие в руках киберпреступников. В особенности технология «Deepfake» (дипфейк), создаваемая путем манипуляции биометрическими данными человека, представляет прямую угрозу национальной безопасности и правовой защите личности.
Технология дипфейк с помощью нейронных сетей позволяет с точностью воспроизводить лицо, интонацию голоса и движения человека. Если раньше кибермошенничество осуществлялось только через текстовые сообщения или простые фишинговые ссылки, то сегодня преступники с помощью ИИ создают цифровые образы государственных служащих, руководителей крупных компаний или близких обычных граждан. Входя в доверие, они наносят огромный финансовый ущерб. Данный вопрос является не только технологической, но и, прежде всего, актуальной доктринальной проблемой, требующей комплексного правового регулирования.

Эта проблема крайне актуальна и для Казахстана.
Согласно официальным данным Министерства внутренних дел РК, доля киберпреступности составляет значительную часть от общего числа уголовных правонарушений в стране, ежегодно регистрируются тысячи фактов интернет-мошенничества.
Например, в последние годы наблюдается устойчивая тенденция роста числа случаев мошенничества с использованием информационных систем. Если раньше преступники пытались использовать лишь психологическое манипулирование по телефону, то сейчас использование аудио- и видеоматериалов, сгенерированных ИИ, вывело характер этой угрозы на совершенно новый уровень.
Опираясь на опыт развитых стран, принятый Европейским союзом «Акт об искусственном интеллекте» (EU AI Act) классифицирует технологии по уровню риска и требует обязательной маркировки дипфейк-контента специальными цифровыми знаками (watermarking). Также в законодательстве США и Южной Кореи существенно ужесточена уголовная ответственность за распространение ложной информации, созданной с помощью ИИ, и незаконное использование биометрических данных.

Правовая система Казахстана также нуждается в эволюционном развитии в этом направлении. Хотя в нашем Уголовном кодексе есть статьи, касающиеся киберпреступлений, закрепление факта использования искусственного интеллекта как орудия преступления в качестве «обстоятельства, отягчающего наказание» – это требование времени. Кроме того,
важно совершенствовать процессуальные нормы в процессе сбора цифровых доказательств и подтверждения их подлинности.
Чтобы исключить использование созданных ИИ подделок в качестве судебных доказательств, необходимо развивать экспертизу, специализирующуюся на идентификации (распознавании) сгенерированного контента.
Помимо этого, остро стоит вопрос безопасности биометрических данных. Системы FaceID или голосовой идентификации в банковских системах и на государственных порталах должны быть устойчивы к атакам с использованием ИИ («presentation attacks»). Поэтому стратегическое значение имеет оснащение технической базы правоохранительных органов и спецслужб криминалистическими инструментами на основе ИИ. С научной точки зрения нам необходимо сформировать новую междисциплинарную школу киберкриминалистики, объединяющую IT-специалистов и юристов.

В связи с этим в разы возрастает значимость понятия «цифровая гигиена». На государственном уровне необходимо реализовывать программы повышения киберграмотности населения.
Каждый гражданин должен бережно относиться к своим биометрическим данным и понимать, что информация в открытых сетях является «сырьем» для преступников. Простые методы, такие как многофакторная аутентификация и использование семейных секретных кодов, остаются эффективными способами защиты от атак ИИ.
В заключение следует отметить, что безопасность в эпоху искусственного интеллекта – это не только вопрос антивирусных программ, но и совокупность комплексной правовой, этической и социальной ответственности. Мы не можем отказаться от технологического прогресса, но обеспечение работы этих технологий в правовых рамках – главная задача ученых и законодательных органов. Только путем адаптации передового международного опыта в национальное законодательство, обновления правовой доктрины и формирования цифровой культуры населения мы сможем защитить наш национальный суверенитет в цифровом пространстве.
Нургуль КУБАНОВА,
старший преподаватель кафедры кибербезопасности
и информационных технологий Алматинской академии
МВД РК имени М. Есболатова, майор полиции, магистр юридических наук
АННОТАЦИЯ
Мақала жасанды интеллект және дипфейк технологияларының дамуы жағдайындағы киберқауіпсіздіктің құқықтық сын-қатерлеріне арналған. Автор ЖИ реттеудегі халықаралық тәжірибе мен Қазақстандағы қазіргі криминогендік ахуалды талдайды. Зерттеу заңнаманы жетілдіруден бастап халықтың цифрлық сауаттылығын арттыруға дейінгі кешенді тәсілдің маңыздылығын көрсетеді.



Комментарии