Технологии искусственного интеллекта (англ. Artificial Intelligence, AI) уже стали значимым инструментом в разных областях: от медицины до транспорта и средств массовой информации[1]. Не обошли они стороной и систему образования, где оказывают существенное влияние на методики преподавания, формы контроля знаний, а также на роль и задачи преподавателя в учебном процессе. При этом важнейшим элементом становится формирование так называемого «вычислительного мышления» и способность грамотно взаимодействовать с системами, использующими искусственный интеллект. В связи с широтой возможных применений ИИ все более очевидной становится необходимость обязательного законодательного регулирования, включая введение норм сертификации и надзорных процедур на государственном уровне.
Понятие и особенности технологий искусственного интеллекта
Согласно отечественным стандартам, под искусственным интеллектом понимается комплекс технологических решений, способных имитировать когнитивные функции человека при выполнении конкретных задач и получать результаты, сопоставимые с результатами интеллектуальной деятельности человека. Во многих исследованиях развитие этой технологии часто отождествляют с возможностями ChatGPT, моделирующего диалог с пользователем, способного генерировать тексты, давать обратную связь и исправлять ошибки. Однако эта система не лишена уязвимостей: в ряде случаев она способна генерировать ложный контент, который выглядит достоверным, а также использовать данные, качество которых не всегда проверено.
В образовании системы искусственного интеллекта применяются для:
- информационного взаимодействия с обучающимися в режиме удаленного доступа;
диагностики результатов обучения; - обеспечения учебно-методическими материалами с учетом компетенций и потребностей обучающихся;
- обработки больших массивов данных для научно-педагогических исследований;
обобщения результатов обучения с использованием интеллектуального анализа.
Проблема изменения методик преподавания
Распространение ИИ ставит перед образовательными организациями вопрос пересмотра традиционных методов преподавания и контроля знаний. Стало очевидно, что такие формы, как подготовка эссе и рефератов, могут быть «имитированы» системами вроде ChatGPT на столь высоком уровне, что проверка на плагиат теряет эффективность. В этой ситуации исследователи говорят о необходимости смещения акцента с механистического реферирования на развитие критического мышления, умения искать и интерпретировать информацию, а также проводить ее оценку на достоверность. Предлагаемые изменения включают:
- увеличение роли устных ответов и диалоговых форм контроля;
- акцент на развитии творческого подхода и познавательной активности;
- внедрение новых методик, учитывающих возможность автоматизации рутинных процедур средствами искусственного интеллекта.
Некоторые исследователи дополнительно указывают на риски предвзятости и генерации системы ИИ недостоверного, а иногда даже запрещенного контента, связанного с историческими и научными стереотипами или ошибочными данными. В связи с этим все громче звучат призывы к строгому регулированию применения искусственного интеллекта хотя бы в тех сферах, где неосторожное его внедрение грозит катастрофическими последствиями.
Зарубежная практика регулирования
В Европейском союзе впервые в мировой практике предпринята попытка системно упорядочить применение ИИ, включая его использование в образовании. «Закон об искусственном интеллекте» (директива № 8115/21) от 26 января 2024 года, в частности, устанавливает:
- правила размещения, ввода в эксплуатацию и использования систем ИИ на территории ЕС;
- запреты на некоторые методы использования искусственного интеллекта;
- особые требования к системам с высоким уровнем риска;
- регламентированные меры прозрачности и надзора.
Под запрет, среди прочего, подпадают методы подсознательного или манипулятивного воздействия, использование систем для удаленной биометрической идентификации в реальном времени, распознавания эмоций обучающегося в образовательных учреждениях и другие приложения, способные нарушать права человека. К системам высокой степени риска отнесены те, что напрямую влияют на критически важные сферы (энергетика, здравоохранение, операции правоохранительных органов) и, что принципиально важно, на управление образованием и процессом обучения. В последнем случае речь идет о зачислении, оценке знаний или поведении, а также прокторинге. Все они подлежат обязательному контролю и сертификации уполномоченными органами.
Отдельно подчеркивается, что качество данных, на которых обучается система искусственного интеллекта, критически влияет на ее способность работать корректно. Именно поэтому для систем высокого риска предусмотрены жесткие требования к набору данных, по которому проводится обучение, валидация и тестирование алгоритмов.
Российская нормативная база
В Российской Федерации вопросы внедрения искусственного интеллекта регулируются Росстандартом, выполняющим функции по разработке государственных стандартов (ГОСТ Р) в рамках работы Технического комитета 164 «Искусственный интеллект». Количество национальных стандартов растет, и на момент написания статьи в сфере образования действовало уже 14 ГОСТ Р, посвященных различным аспектам применения ИИ:
Обозначение | Название стандарта |
---|---|
ГОСТ Р 59895-2021 | Технологии искусственного интеллекта в образовании. Общие положения и терминология |
ГОСТ Р 59896-2021 | Образовательные продукты с алгоритмами искусственного интеллекта для адаптивного обучения в общем образовании. Требования к учебно-методическим материалам |
ГОСТ Р 59897-2021 | Данные для систем искусственного интеллекта в образовании. Требования к сбору, хранению, обработке, передаче и защите данных |
ГОСТ Р 59898-2021 | Оценка качества систем искусственного интеллекта. Общие положения |
ГОСТ Р 59899-2021 | Образовательные продукты с алгоритмами искусственного интеллекта для адаптивного обучения в общем образовании. Технические требования |
ГОСТ Р 59900-2021 | Системы искусственного интеллекта. Типовые требования к контрольным выборкам исходных данных для испытания систем искусственного интеллекта в образовании |
ГОСТ Р 70944-2023 | Технологии искусственного интеллекта в образовании. Функциональная подсистема организации участия в конкурсных мероприятиях в сфере научной деятельности. Общие положения |
ГОСТ Р 70945-2023 | Технологии искусственного интеллекта в образовании. Функциональная подсистема организации и проведения научных мероприятий. Общие положения |
ГОСТ Р 70946-2023 | Технологии искусственного интеллекта в образовании. Подсистема управления успеваемостью по программам бакалавриата и специалитета. Общие положения и методика испытаний |
ГОСТ Р 70947-2023 | Технологии искусственного интеллекта в образовании. Подсистема управления успеваемостью по программам среднего профессионального образования. Общие положения и методика испытаний |
ГОСТ Р 70948-2023 | Технологии искусственного интеллекта в образовании. Подсистема формирования контингента абитуриентов по программам бакалавриата и специалитета. Общие положения и методика испытаний |
ГОСТ Р 70949-2023 | Технологии искусственного интеллекта в образовании. Применение искусственного интеллекта в научно-исследовательской деятельности. Варианты использования |
ГОСТ Р 70950-2023 | Технологии искусственного интеллекта в образовании. Подсистема управления успеваемостью по программам подготовки научных и научно-педагогических кадров в аспирантуре. Общие положения и методика испытаний |
ГОСТ Р 70951-2023 | Технологии искусственного интеллекта в образовании. Подсистема управления успеваемостью по программам дополнительного профессионального образования. Общие положения и методика испытаний |
Однако перечисленные стандарты по большей части носят рекомендательный характер, описывая общую методику применения ИИ и порядок проверки его корректности. Образовательные организации не обязаны в обязательном порядке им соответствовать и могут использовать или не использовать эти руководящие материалы. Исключение – это система добровольной сертификации «Интеллометрика», которая, тем не менее, пока не является законодательно требуемой для всех учебных заведений.
Необходимость обязательной сертификации
С учетом обозначенных рисков специалисты сходятся во мнении, что добровольных мер контроля оказывается недостаточно. Предоставление доступа к интеллектуальным технологиям, напрямую влияющим на судьбу обучающихся (зачисление, оценка знаний, дисциплинарный контроль), требует введения жестких требований и регулярных проверок на государственном уровне. Подобный подход помогает:
- зафиксировать единые стандарты качества и кибербезопасности;
- учитывать особенности данных, на которых обучаются системы;
- обеспечить прозрачность при принятии решений алгоритмом;
- гарантировать, что человек сохраняет управляющую роль по отношению к машине.
Опыт Европейского союза указывает на необходимость создания исчерпывающего механизма надзора: от требований к разработке и обучающим наборам данных до требований к поставщикам систем, их установке, эксплуатации и официальной сертификации. При этом важно не только иметь теоретические стандарты, но и законодательно обязать все образовательные учреждения, внедряющие ИИ, придерживаться этих правил, в том числе через аккредитованные органы сертификации. Такая система, по мнению авторов исследований, придаст необходимый импульс развитию ИИ-технологий в образовании, удерживая при этом риски в допустимых пределах.
Заключение
Искусственный интеллект в образовании уже не является предметом абстрактных дискуссий — он проник в повседневную жизнь учебных заведений. Он способен автоматизировать рутинный анализ эссе, предоставлять быструю обратную связь студентам, проводить интеллектуальный анализ данных. Однако вместе с этими преимуществами приходят новые вызовы, связанные с качеством и достоверностью данных, предвзятостью алгоритмов, необходимостью переработки методик преподавания и большой ответственностью перед обществом. Для того чтобы система образования эффективно и безопасно использовала возможности искусственного интеллекта, требуется комплексное законодательное регулирование, включая обязательную сертификацию программного обеспечения и оборудования, использующих данную технологию. Подобный механизм позволит обеспечить национальную безопасность и интересы граждан, сохранив при этом свободу для развития передовых технологий.
Citations:
[1] Зажигалкин А.В., Мансуров Т.Т., Мерецков О.В. Регулирование искусственного интеллекта в образовании // Компетентность / Competency (Russia). — 2024. — No 6. DOI: 10.24412/1993-8780-2024-6-03-10