В Казахстанском парламенте находятся на рассмотрении законопроекты «Об искусственном интеллекте» и «О внесении изменений в Кодекс административных правонарушений» (КоАП), которые предполагают добавление новой статьи, касающейся нарушений в области законодательства о искусственном интеллекте.
Согласно предложенной редакции новой статьи КоАП РК, ответственность за нарушение законодательства об искусственном интеллекте будет определяться в следующих случаях:
1) если владельцы или операторы систем искусственного интеллекта не предоставляют пользователям информацию о синтетических результатах работы генеративных систем, что может привести к заблуждению;
2) если владельцы или операторы систем не управляют рисками, связанными с использованием искусственного интеллекта, что приводит к негативным последствиям для здоровья и благополучия людей, распространению запрещенной информации, дискриминации или нарушению прав человека, при условии, что данное действие (или бездействие) не попадает под уголовную ответственность.
В таких случаях штрафы будут составлять:
· для физических лиц – 15 МРП;
· для субъектов среднего предпринимательства – 30 МРП;
· для субъектов крупного бизнеса – 100 МРП.
Кроме того, в законе об искусственном интеллекте в Казахстане будет прописано управление рисками, связанными с такими системами.
Воздействие искусственного интеллекта будет классифицироваться на несколько уровней риска:
1) низкий риск – сбои или прекращение работы, которые оказывают минимальное воздействие на пользователей;
2) средний риск – ошибки или прекращение работы, которые могут снизить эффективность и результативность действий пользователей и вызвать материальный ущерб;
3) высокий риск – сбои или прекращение работы, которые могут привести к чрезвычайным ситуациям социального или техногенного характера и оказать значительное негативное влияние на оборону, безопасность, международные отношения, экономику, отдельные отрасли и инфраструктуру Казахстана, а также на жизнь граждан.
Кроме того, в Казахстане запрещено создавать и запускать в эксплуатацию полностью автономные системы искусственного интеллекта, которые принимают решения независимо от заданных параметров и не подлежат контролю со стороны их владельца. Также запрещено разрабатывать ИИ с такими функциональными возможностями:
1) использование подсознательных или манипулятивных техник, которые искажают поведение человека и ограничивают его способность принимать сознательные решения или заставляют его принимать решения, угрожающие его жизни, здоровью и имуществу;
2) использование моральной или физической уязвимости человека, связанной с его возрастом, состоянием здоровья или социальным положением, для нанесения вреда;
3) оценка и классификация людей на основе их социального поведения или предполагаемых личных характеристик на протяжении определенного времени, за исключением случаев, предусмотренных законодательством;
4) создание или расширение баз данных для распознавания лиц с использованием персональных данных, извлеченных из Интернета или камер наблюдения без разрешения;
5) классификация людей по биометрическим данным для дискриминации на основании их расы, политических мнений или религиозных убеждений;
6) определение эмоций без согласия людей, за исключением случаев, оговоренных законодательством;
7) удаленная биометрическая идентификация личности в общественных местах в реальном времени, если это не предусмотрено законом;
8) создание и распространение результатов работы систем ИИ, запрещенных действующим законодательством.
Данные меры направлены на защиту прав граждан и предотвращение возможных негативных последствий использования технологий искусственного интеллекта. Казахстан стремится создать правовую базу, обеспечивающую ответственное использование ИИ, что крайне важно в условиях быстроразвивающихся технологий и их влияния на общество.
С момента принятия законопроекта власти вправе будут проводить регулярные проверки соответствия использованию ИИ, а также устанавливать законодательные нормы по обучению и сертификации специалистов в данной области, что позволит повысить уровень безопасности и надежности таких технологий.