Новые правила в образовании: кого спасут, а кого погубят технологии искусственного интеллекта?

Технологии искусственного интеллекта (англ. Artificial Intelligence, AI) уже стали значимым инструментом в разных областях: от медицины до транспорта и средств массовой информации[1]. Не обошли они стороной и систему образования, где оказывают существенное влияние на методики преподавания, формы контроля знаний, а также на роль и задачи преподавателя в учебном процессе. При этом важнейшим элементом становится формирование так называемого «вычислительного мышления» и способность грамотно взаимодействовать с системами, использующими искусственный интеллект. В связи с широтой возможных применений ИИ все более очевидной становится необходимость обязательного законодательного регулирования, включая введение норм сертификации и надзорных процедур на государственном уровне.

Понятие и особенности технологий искусственного интеллекта

Согласно отечественным стандартам, под искусственным интеллектом понимается комплекс технологических решений, способных имитировать когнитивные функции человека при выполнении конкретных задач и получать результаты, сопоставимые с результатами интеллектуальной деятельности человека. Во многих исследованиях развитие этой технологии часто отождествляют с возможностями ChatGPT, моделирующего диалог с пользователем, способного генерировать тексты, давать обратную связь и исправлять ошибки. Однако эта система не лишена уязвимостей: в ряде случаев она способна генерировать ложный контент, который выглядит достоверным, а также использовать данные, качество которых не всегда проверено.

В образовании системы искусственного интеллекта применяются для:

  • информационного взаимодействия с обучающимися в режиме удаленного доступа;
    диагностики результатов обучения;
  • обеспечения учебно-методическими материалами с учетом компетенций и потребностей обучающихся;
  • обработки больших массивов данных для научно-педагогических исследований;
    обобщения результатов обучения с использованием интеллектуального анализа.

Проблема изменения методик преподавания

Распространение ИИ ставит перед образовательными организациями вопрос пересмотра традиционных методов преподавания и контроля знаний. Стало очевидно, что такие формы, как подготовка эссе и рефератов, могут быть «имитированы» системами вроде ChatGPT на столь высоком уровне, что проверка на плагиат теряет эффективность. В этой ситуации исследователи говорят о необходимости смещения акцента с механистического реферирования на развитие критического мышления, умения искать и интерпретировать информацию, а также проводить ее оценку на достоверность. Предлагаемые изменения включают:

  • увеличение роли устных ответов и диалоговых форм контроля;
  • акцент на развитии творческого подхода и познавательной активности;
  • внедрение новых методик, учитывающих возможность автоматизации рутинных процедур средствами искусственного интеллекта.

Некоторые исследователи дополнительно указывают на риски предвзятости и генерации системы ИИ недостоверного, а иногда даже запрещенного контента, связанного с историческими и научными стереотипами или ошибочными данными. В связи с этим все громче звучат призывы к строгому регулированию применения искусственного интеллекта хотя бы в тех сферах, где неосторожное его внедрение грозит катастрофическими последствиями.

Зарубежная практика регулирования

В Европейском союзе впервые в мировой практике предпринята попытка системно упорядочить применение ИИ, включая его использование в образовании. «Закон об искусственном интеллекте» (директива № 8115/21) от 26 января 2024 года, в частности, устанавливает:

  • правила размещения, ввода в эксплуатацию и использования систем ИИ на территории ЕС;
  • запреты на некоторые методы использования искусственного интеллекта;
  • особые требования к системам с высоким уровнем риска;
  • регламентированные меры прозрачности и надзора.

Под запрет, среди прочего, подпадают методы подсознательного или манипулятивного воздействия, использование систем для удаленной биометрической идентификации в реальном времени, распознавания эмоций обучающегося в образовательных учреждениях и другие приложения, способные нарушать права человека. К системам высокой степени риска отнесены те, что напрямую влияют на критически важные сферы (энергетика, здравоохранение, операции правоохранительных органов) и, что принципиально важно, на управление образованием и процессом обучения. В последнем случае речь идет о зачислении, оценке знаний или поведении, а также прокторинге. Все они подлежат обязательному контролю и сертификации уполномоченными органами.

Отдельно подчеркивается, что качество данных, на которых обучается система искусственного интеллекта, критически влияет на ее способность работать корректно. Именно поэтому для систем высокого риска предусмотрены жесткие требования к набору данных, по которому проводится обучение, валидация и тестирование алгоритмов.

Российская нормативная база

В Российской Федерации вопросы внедрения искусственного интеллекта регулируются Росстандартом, выполняющим функции по разработке государственных стандартов (ГОСТ Р) в рамках работы Технического комитета 164 «Искусственный интеллект». Количество национальных стандартов растет, и на момент написания статьи в сфере образования действовало уже 14 ГОСТ Р, посвященных различным аспектам применения ИИ:

ОбозначениеНазвание стандарта
ГОСТ Р 59895-2021Технологии искусственного интеллекта в образовании. Общие положения и терминология
ГОСТ Р 59896-2021Образовательные продукты с алгоритмами искусственного интеллекта для адаптивного обучения в общем образовании. Требования к учебно-методическим материалам
ГОСТ Р 59897-2021Данные для систем искусственного интеллекта в образовании. Требования к сбору, хранению, обработке, передаче и защите данных
ГОСТ Р 59898-2021Оценка качества систем искусственного интеллекта. Общие положения
ГОСТ Р 59899-2021Образовательные продукты с алгоритмами искусственного интеллекта для адаптивного обучения в общем образовании. Технические требования
ГОСТ Р 59900-2021Системы искусственного интеллекта. Типовые требования к контрольным выборкам исходных данных для испытания систем искусственного интеллекта в образовании
ГОСТ Р 70944-2023Технологии искусственного интеллекта в образовании. Функциональная подсистема организации участия в конкурсных мероприятиях в сфере научной деятельности. Общие положения
ГОСТ Р 70945-2023Технологии искусственного интеллекта в образовании. Функциональная подсистема организации и проведения научных мероприятий. Общие положения
ГОСТ Р 70946-2023Технологии искусственного интеллекта в образовании. Подсистема управления успеваемостью по программам бакалавриата и специалитета. Общие положения и методика испытаний
ГОСТ Р 70947-2023Технологии искусственного интеллекта в образовании. Подсистема управления успеваемостью по программам среднего профессионального образования. Общие положения и методика испытаний
ГОСТ Р 70948-2023Технологии искусственного интеллекта в образовании. Подсистема формирования контингента абитуриентов по программам бакалавриата и специалитета. Общие положения и методика испытаний
ГОСТ Р 70949-2023Технологии искусственного интеллекта в образовании. Применение искусственного интеллекта в научно-исследовательской деятельности. Варианты использования
ГОСТ Р 70950-2023Технологии искусственного интеллекта в образовании. Подсистема управления успеваемостью по программам подготовки научных и научно-педагогических кадров в аспирантуре. Общие положения и методика испытаний
ГОСТ Р 70951-2023Технологии искусственного интеллекта в образовании. Подсистема управления успеваемостью по программам дополнительного профессионального образования. Общие положения и методика испытаний

Однако перечисленные стандарты по большей части носят рекомендательный характер, описывая общую методику применения ИИ и порядок проверки его корректности. Образовательные организации не обязаны в обязательном порядке им соответствовать и могут использовать или не использовать эти руководящие материалы. Исключение – это система добровольной сертификации «Интеллометрика», которая, тем не менее, пока не является законодательно требуемой для всех учебных заведений.

Необходимость обязательной сертификации

С учетом обозначенных рисков специалисты сходятся во мнении, что добровольных мер контроля оказывается недостаточно. Предоставление доступа к интеллектуальным технологиям, напрямую влияющим на судьбу обучающихся (зачисление, оценка знаний, дисциплинарный контроль), требует введения жестких требований и регулярных проверок на государственном уровне. Подобный подход помогает:

  • зафиксировать единые стандарты качества и кибербезопасности;
  • учитывать особенности данных, на которых обучаются системы;
  • обеспечить прозрачность при принятии решений алгоритмом;
  • гарантировать, что человек сохраняет управляющую роль по отношению к машине.

Опыт Европейского союза указывает на необходимость создания исчерпывающего механизма надзора: от требований к разработке и обучающим наборам данных до требований к поставщикам систем, их установке, эксплуатации и официальной сертификации. При этом важно не только иметь теоретические стандарты, но и законодательно обязать все образовательные учреждения, внедряющие ИИ, придерживаться этих правил, в том числе через аккредитованные органы сертификации. Такая система, по мнению авторов исследований, придаст необходимый импульс развитию ИИ-технологий в образовании, удерживая при этом риски в допустимых пределах.

Заключение

Искусственный интеллект в образовании уже не является предметом абстрактных дискуссий — он проник в повседневную жизнь учебных заведений. Он способен автоматизировать рутинный анализ эссе, предоставлять быструю обратную связь студентам, проводить интеллектуальный анализ данных. Однако вместе с этими преимуществами приходят новые вызовы, связанные с качеством и достоверностью данных, предвзятостью алгоритмов, необходимостью переработки методик преподавания и большой ответственностью перед обществом. Для того чтобы система образования эффективно и безопасно использовала возможности искусственного интеллекта, требуется комплексное законодательное регулирование, включая обязательную сертификацию программного обеспечения и оборудования, использующих данную технологию. Подобный механизм позволит обеспечить национальную безопасность и интересы граждан, сохранив при этом свободу для развития передовых технологий.

Citations:

[1] Зажигалкин А.В., Мансуров Т.Т., Мерецков О.В. Регулирование искусственного интеллекта в образовании // Компетентность / Competency (Russia). — 2024. — No 6. DOI: 10.24412/1993-8780-2024-6-03-10

ОСТАВЬТЕ ОТВЕТ

Please enter your comment!
Please enter your name here