Все статьиОбразование

Этика AI в школе: данные, прозрачность алгоритмов, роль человека

БА
Бексултан Айтен
CTO, Alashed
9 сентября 2025 г.
8 мин чтения
Этика AI в школе: данные, прозрачность алгоритмов, роль человека

Разбираем этические вопросы использования искусственного интеллекта в школах Казахстана: конфиденциальность данных, прозрачность и человеческий контроль.

Почему этика AI -- это не теория, а практика

Когда школа внедряет AI-платформу, она одновременно принимает десятки решений, которые затрагивают этику. Какие данные об учениках собирает платформа? Кто имеет к ним доступ? Как AI принимает решения -- например, когда рекомендует ученику упрощённое задание? Может ли учитель не согласиться с рекомендацией AI? Знают ли родители, что их ребёнок взаимодействует с искусственным интеллектом?

Эти вопросы не абстрактны. Они возникают в каждой школе, которая использует или планирует использовать AI-инструменты. И ответы на них определяют, станет ли AI помощником или источником проблем.

В Казахстане пока нет специального закона об AI в образовании, но есть Закон о персональных данных и Закон об образовании, которые устанавливают рамки. В этой статье мы разберём ключевые этические вопросы и дадим практические рекомендации для директоров и учителей.

AI-дашборд с аналитикой по классу
AI-дашборд с аналитикой по классу

Вопрос первый: какие данные собирает AI

Что собирается

Типичная AI-платформа для образования собирает следующие данные:

  • Результаты выполнения заданий: правильно/неправильно, количество попыток, время выполнения.
  • Паттерны ошибок: какие типы ошибок ученик допускает чаще всего.
  • Активность на платформе: частота входа, продолжительность сессий, использованные модули.
  • Взаимодействие с AI-ассистентом: какие вопросы задавал ученик, какие подсказки получил.

Что не должно собираться

Этичная AI-платформа не собирает:

  • Биометрические данные (отпечатки пальцев, распознавание лица) без явного согласия.
  • Содержание личных переписок и файлов, не связанных с обучением.
  • Данные о поведении ученика вне платформы.
  • Информацию о здоровье, семейном положении, религии или этнической принадлежности.

Рекомендация для директоров

Перед внедрением любой AI-платформы запросите у поставщика полный перечень собираемых данных и политику их хранения. Данные должны храниться на серверах, соответствующих законодательству Казахстана, и не должны передаваться третьим лицам без согласия школы.

Учитель и AI работают вместе над планом урока
Учитель и AI работают вместе над планом урока

Вопрос второй: прозрачность алгоритмов

Проблема «чёрного ящика»

Когда AI рекомендует ученику определённый уровень сложности задания, учитель и ученик имеют право знать, почему. Если AI -- это «чёрный ящик», который выдаёт решения без объяснений, возникает риск несправедливости.

Пример: AI определил, что ученик Алихан «слабый» и постоянно предлагает ему упрощённые задания. Но Алихан отстаёт не потому, что не способен, а потому, что болел две недели и пропустил базовую тему. Без прозрачности учитель не может скорректировать решение AI.

Требования к прозрачности

Этичная AI-платформа должна:

  • Объяснять каждую рекомендацию. Не просто «рекомендуем задание уровня 2», а «рекомендуем задание уровня 2, потому что ученик допустил ошибки в теме Х и ему нужна дополнительная практика».
  • Позволять учителю переопределить решение AI. Учитель знает ученика лучше, чем алгоритм. Если учитель считает, что ученик готов к сложному заданию -- он должен иметь возможность назначить его.
  • Показывать факторы, влияющие на оценку. Если AI участвует в формировании аналитики по ученику, учитель должен видеть, какие данные были учтены.

Вопрос третий: роль человека

AI рекомендует, человек решает

Это фундаментальный принцип этичного использования AI в образовании. AI может анализировать данные, выявлять паттерны и предлагать варианты. Но итоговое решение -- всегда за человеком: учителем, директором, родителем.

Конкретные примеры:

  • AI предлагает черновик КМЖ -- учитель редактирует и утверждает.
  • AI показывает, что ученик отстаёт -- учитель решает, как помочь.
  • AI рекомендует закупить дополнительное оборудование -- директор оценивает бюджет и приоритеты.
  • AI генерирует отчёт -- учитель проверяет и подписывает.

Опасность чрезмерного доверия

Обратная сторона удобства AI -- риск того, что учителя начнут слепо доверять его рекомендациям. «AI сказал -- значит, правильно». Это опасно, потому что AI работает с данными, а не с контекстом. Он не знает, что ученик переживает развод родителей, что в классе был конфликт, что тема была объяснена плохо из-за технических проблем.

Школа должна формировать культуру критического отношения к AI -- и у учителей, и у учеников.

Цифровая школа будущего с учениками за компьютерами
Цифровая школа будущего с учениками за компьютерами

Вопрос четвёртый: согласие родителей

По законодательству Казахстана, обработка персональных данных несовершеннолетних требует согласия родителей или законных представителей. Это означает, что перед внедрением AI-платформы школа обязана:

1. Проинформировать родителей о том, какая платформа используется, какие данные собираются и как они защищены.

2. Получить письменное согласие на обработку данных ребёнка.

3. Предоставить возможность отказа. Если родитель не согласен -- школа должна предложить альтернативный способ обучения.

На практике большинство родителей дают согласие, если им понятно объяснить пользу платформы и гарантировать безопасность данных. Проблемы возникают, когда школа внедряет платформу без информирования.

Вопрос пятый: AI и оценивание

AI может помогать в оценивании: проверять код на правильность, анализировать ответы, формировать статистику. Но есть границы.

AI может: автоматически проверять тесты с закрытыми вопросами, анализировать код на наличие ошибок, считать метрики (время выполнения, количество попыток).

AI не должен: выставлять итоговые оценки в журнал, принимать решения о переводе ученика в другой класс, формировать характеристики для аттестации.

Итоговое оценивание -- это профессиональная ответственность учителя. AI предоставляет данные, учитель принимает решение.

Практический чек-лист для школы

1. Запросите у поставщика платформы политику конфиденциальности и перечень собираемых данных.

2. Убедитесь, что данные хранятся в соответствии с законодательством Казахстана.

3. Проверьте, что AI-рекомендации прозрачны и могут быть переопределены учителем.

4. Получите информированное согласие родителей до начала использования платформы.

5. Проведите обучение учителей по этичному использованию AI.

6. Установите правило: AI рекомендует, человек решает.

7. Ежегодно пересматривайте политику использования AI с учётом обновлений законодательства.

Заключение

Этика AI в школе -- это не философский вопрос, а практическая задача, которую нужно решить до внедрения, а не после. Школа, которая с самого начала выстраивает прозрачную, этичную систему использования AI, получает доверие родителей, защиту от рисков и устойчивую базу для развития. AI -- мощный инструмент, но только в руках ответственного человека.

Попробуйте Alashed бесплатно

Подключите школу к пилоту. Генерируйте КМЖ за 2 минуты, ведите CodeStudio уроки, заказывайте оборудование — всё в одном месте.

Попробовать бесплатноДемо