Кальницкая Ирина Владимировна,кандидат экономических наук, доцент кафедры «Финансы и учет», Омский филиал федерального государственного образовательного бюджетного учреждения высшего образования «Финансовый университет при Правительстве Российской Федерации», Омск, Российская Федерация Irina V. Kalnitskaya, candidate of economic sciences, associate professor of the Department of Finance and Accounting, Omsk branch of the Federal State Budgetary Educational Institution of Higher Education «Financial University under the Government of the Russian Federation», Omsk, Russian Federation |
Риски использования технологий искусственного интеллекта в высшем образовании
В статье рассмотрены ключевые риски использования технологий искусственного интеллекта в высшем образовании: академические, этические, юридические, социальные и психологические, инфраструктурные, кадровые. Минимизация образовательных рисков обеспечит этичное и эффективное внедрение технологий искусственного интеллекта в высшее образование.
Ключевые слова: искусственный интеллект, высшее образование, образовательные риски, преподаватели, студенты.
The article examines the key risks of using artificial intelligence technologies in higher education: academic, ethical, legal, social and psychological, infrastructural, personnel. Minimizing educational risks will ensure the ethical and effective implementation of artificial intelligence technologies in higher education.
Keywords: artificial intelligence, higher education, educational risks, teachers, students.
Технологии искусственного интеллекта (далее – ИИ) активно проникают в разнообразные сферы человеческой деятельности, и система высшего образования не является исключением. В академическом сообществе вопросы использования технологий искусственного интеллекта обсуждаются в аспекте их потенциальных возможностей для образовательной практики, актуальных проблем использования и рисков, которые неизбежны, поскольку внедрение технологий ИИ в любой сектор влечет за собой и отрицательные последствия.
Влияние технологий искусственного интеллекта на высшее образование распространяется по следующим ключевым направлениям:
– технологии искусственного интеллекта и студенты (цифровые инструменты для поддержки обучения и новые технологии при оценке успеваемости студентов);
– технологии искусственного интеллекта и преподаватели (новые технологии и методы поддержки преподавательской деятельности в электронных образовательных средах);
– технологии искусственного интеллекта и системы (технологии для наиболее эффективного управления образовательными учреждениями) [1, с. 39].
Потенциальные возможности использования технологий искусственного интеллекта в высшем образовании огромны. Их применение предоставляет персонализированный опыт обучения, повышает вовлеченность студентов в образовательный процесс, улучшает их академические результаты, адаптирует образовательный контент к индивидуальным потребностям студентов и др. Растущий интерес к использованию технологий ИИ в сфере высшего образования требует более глубокого понимания рисков их внедрения в образовательную практику.
Риски использования технологий искусственного интеллекта в высшем образовании по степени их релевантного исследования в научных публикациях как отечественных, так и зарубежных авторов можно систематизировать по следующим направлениям:
1. Академические.
2. Этические.
3. Юридические.
4. Социальные и психологические.
5. Инфраструктурные.
6. Кадровые.
Далее дадим краткую характеристику выделенных направлений рисков использования технологий искусственного интеллекта в высшем образовании.
Академические риски в научных исследованиях рассматриваются в контексте академической честности, снижения качества образования и творческих навыков у студентов. Технологии искусственного интеллекта обладают широкими возможностями генерации научных и учебных текстов, что увеличивает вероятность злоупотребления ими при выполнении различного рода академических работ. Признавая потенциальную пользу технологий искусственного интеллекта для обучения, преподавания и оценки, высшие учебные заведения единодушны во мнении, что эти технологии представляют собой серьезную угрозу, если студенты используют их при выполнении контрольных, курсовых, дипломных работ, выдаваемых ими за собственные работы [5].
Автоматизация обучения способствует стандартизации знаний, снижая возможности образовательной среды для развития индивидуальных способностей, что в конечном итоге негативно отражается на конкурентоспособности выпускников на рынке труда. Кроме того, избыточное доверие и перенос ответственности за принятие решений на искусственный интеллект может привести к снижению навыков критического мышления, творческого подхода и метакогнитивных умений у студентов. Учащиеся, которые становятся чрезмерно зависимыми от решений, созданных искусственным интеллектом, испытывают трудности в развитии интуитивного суждения и творческих способностей к решению проблем. Удобство технологий искусственного интеллекта снижает желание заниматься глубокими размышлениями и итеративными процессами обучения [7]. Тем не менее, в научных исследованиях отмечено, что студенты все чаще опасаются чрезмерно полагаться на инструменты генеративного искусственного интеллекта, считая, что такая зависимость может подавить их творческий потенциал, подорвать способность развивать навыки самостоятельного мышления и решения проблем, снизить их способность или желание мыслить самостоятельно, мотивацию и способность глубоко вникать в академические задачи [8].
Следует отметить, что использование искусственного интеллекта в процессе обучения может способствовать повышению результативности студентов только в краткосрочной перспективе. В долгосрочной перспективе использование искусственного интеллекта должно быть более осторожным с целью сохранения у студентов необходимых навыков без использования технологий ИИ [6].
Этические риски, включающие алгоритмическую предвзятость искусственного интеллекта и дискриминацию, могут привести к некорректным или несправедливым решениям в процессе оценки студентов или предоставления обратной связи [3]. Например, инструменты оценки на основе технологий ИИ могут отдавать предпочтение студентам, чьи модели общения соответствуют доминирующим культурным нормам, потенциально наказывая иностранных студентов или студентов из других языковых групп [7]. Алгоритмы обработки естественного языка, используемые в автоматизированных системах обратной связи, могут испытывать трудности с точной интерпретацией различных стилей письма или культурных проявлений, что приводит к несправедливым оценкам [7].
Алгоритмы искусственного интеллекта обучаются на больших массивах данных, которые часто содержат скрытые предубеждения и искажения, что может привести к воспроизведению расовых, гендерных и других стереотипов [2]. В контексте высшего образования это проявляется в виде необъективных оценок, несправедливых рекомендаций и дискриминационных решений по признакам пола, этнической принадлежности или социального статуса [2]. Опасения по поводу предвзятости искусственного интеллекта, когда алгоритмы могут выдавать предвзятую или вводящую в заблуждение информацию, усугубляют недоверие студентов, им может быть сложно понять, как ИИ приходит к своим выводам или генерирует контент, что приводит к скептицизму и нежеланию полагаться на эти инструменты [8].
Юридические риски включают конфиденциальность персональных данных и отсутствие нормативного регулирования использования технологий искусственного интеллекта. Поскольку эти технологии собирают и анализируют огромные объемы личных и академических данных, существует риск неправильного хранения и злоупотребления информацией. Персональные данные преподавателей и студентов могут быть использованы не по назначению, без надлежащих мер безопасности, что приводит к этическим дилеммам относительно согласия и права собственности [9]. Платформы обучения на базе искусственного интеллекта непрерывно собирают и анализируют огромные объемы данных о поведении студентов, включая модели обучения, время отклика, метрики вовлеченности и показатели эффективности. Этот обширный сбор данных создает уязвимости для нарушений конфиденциальности и несанкционированного использования конфиденциальной образовательной информации [7]. Для снижения этого риска следует «работать над балансом между открытостью информации и ее защитой путем ответственного и грамотного внедрения технологий и инструментов искусственного интеллекта» [1, с. 40].
Следует отметить, что, «несмотря на стремительное развитие технологий искусственного интеллекта, законодательство пока не дает однозначных ответов на ключевые вопросы, связанные с авторством, правами на использование и коммерческим распространением контента, сгенерированного искусственным интеллектом» [4, с. 105]. Создание научных и учебных материалов с помощью технологий ИИ «ставит вопрос авторства: кого считать его создателем – разработчика алгоритма, пользователя, инициировавшего процесс генерации или ни одного из них, поскольку система не обладает правосубъектностью?» [2, с. 32]. Как следствие, «преподаватели и разработчики образовательных ресурсов, использующие материалы, созданные с помощью искусственного интеллекта, должны осознавать, что в условиях правовой неопределенности ответственность за соблюдение норм интеллектуальной собственности ложится на них» [4, с. 105].
Необходимо признать, что использование технологий искусственного интеллекта в образовательной практике требует адаптации к новым форматам работы, что сопровождается сопротивлением участников образовательного процесса и повышенной стрессовой нагрузкой для них. Кроме того, использование ИИ в образовательной практике ведет к снижению учебной активности студентов, поскольку персонализация процесса обучения нивелирует значимость самостоятельного поиска и критического осмысления информации студентами, что ведет к снижению мотивации, навыков аналитического мышления и формированию пассивной позиции в образовательном процессе.
Рост роли виртуальных ассистентов, автоматизация обратной связи и оценки с помощью технологий искусственного интеллекта снижает качество живого общения между преподавателями и студентами, ведет к утрате навыков межличностного общения, что подрывает атмосферу доверия и сотрудничества, потенциально сокращает возможности для наставничества, эмпатии и персонализированного руководства. Дефицит социального взаимодействия негативно сказывается на развитии эмоционального интеллекта и социальных компетенций, необходимых для профессиональной и личностной адаптации. Образовательные программы должны тщательно балансировать между интеграцией искусственного интеллекта и сохранением педагогических подходов, ориентированных на студентов и способствующих развитию креативности, этического мышления и навыков межличностного общения [7].
Внедрение искусственного интеллекта в высшее образование создает институциональные риски, особенно в регионах с ограниченной инфраструктурой и финансовыми ресурсами. Многие университеты не имеют финансирования для масштабного внедрения технологий искусственного интеллекта, что создает неравенство в доступе к образовательным технологиям [9]. В случае неравномерного распространения технологий ИИ между различными учебными заведениями и регионами может возникнуть риск увеличения неравенства в образовательном доступе и возможности получения качественного образования [3, с. 167].
Цифровое неравенство особенно проявляется в образовательных учреждениях, где доступ студентов к высококачественным технологиям искусственного интеллекта, надежному интернет-соединению и технической поддержке значительно различается в зависимости от социально-экономического статуса, географического положения и институциональных ресурсов [7].
Кадровые риски обусловлены дефицитом цифровых компетенций у преподавателей в области использования технологий искусственного интеллекта в образовательной практике, что ведет к снижению их конкурентоспособности на рынке труда.
Общепризнано, что преподаватели получают выгоду от технологий обучения на основе искусственного интеллекта, автоматизированного оценивания и рекомендаций по контенту на основе ИИ, которые снижают административную нагрузку и позволяют им больше сосредоточиться на вовлечении студентов в образовательный процесс и научных исследованиях. Однако преподаватели часто сталкиваются с трудностями при адаптации к технологиям искусственного интеллекта, в основном из-за нехватки технической подготовки и опасений по поводу сокращения рабочих мест, считая, что автоматизация может заменить традиционные методы обучения, снизив их роль в обучении студентов [9]. По сути эти опасения весьма обоснованы, учитывая стремительное развитие технологий искусственного интеллекта. Но стоит отметить, «что, к счастью, в настоящее время искусственный интеллект не способен полностью заменить живое общение преподавателей со студенческими группами» [1, с. 40].
Для снижения кадрового риска университетам следует отдать приоритет программам повышения грамотности в области искусственного интеллекта и инициативам по профессиональному развитию, которые позволят преподавателям эффективно интегрировать эти технологии в образовательную практику.
В заключение отметим, что минимизация рассмотренных рисков использования современных технологий в сфере высшего образования обеспечит этичное и эффективное их внедрение в образовательную практику, для чего необходимы разработка и реализация комплексных стратегий. Приоритетными направлениями таких стратегий должны быть повышение цифровой компетентности преподавателей и студентов, развитие инфраструктуры, формирование правового поля, сохранение академической честности, поддержка мотивации студентов и развитие социальных навыков.
Литература
1. Абрамовский А. Л., Абрамовский Д. А., Легостаева И. В. Трансформация дистанционного образования под влиянием искусственного интеллекта в цифровую эру: тренды, возможности, вызовы // Russian Economic Bulletin. – 2025. – Том 8. – № 2. – С. 36 – 42.
2. Иванченко Д. А. Нейросетевые технологии в образовании: возможности и применение: методическое пособие. – М.: Директ-Медиа, 2025. – 88 с.
3. Кузьменко Е. Л., Белоусова Т. М., Лещенко Е. М. Проблемы и риски интеграции искусственного интеллекта в высшее образование // Регион: системы, экономика, управление. – 2024. – № 2 (65). – С. 164-168. – DOI: 10.22394/1997-4469-2024-65-2-164-168.
4. Титова С. В., Чикризова К. В. Разработка и использование обучающих материалов на базе ИИ в вузах: правовые аспекты // Высшее образование в России. – 2025. – Т. 34. – № 6. – С. 91-111. – DOI: 10.31992/0869-3617-2025-34-6-91-111.
5. Ballantine J., Boyce G., Stoner G. A critical review of AI in accounting education: Threat and opportunity //Critical Perspectives on Accounting. – 2024. – Т. 99. – С. 102711.
6. Fachrurrozie F. et al. Exploring the use of artificial intelligence in Indonesian accounting classes //Cogent Education. – 2025. – Т. 12. – №. 1. – С. 2448053. – Электронный ресурс. – URL: https://doi.org/10.1080/2331186X.2024.2448053 (дата обращения: 18.08.2025).
7. Gong Y., Wang S., Dong Y. Integrating artificial intelligence in entrepreneurship education: Dynamic capabilities and marketing performance among student entrepreneurs //The International Journal of Management Education. – 2025. – Т. 23. – №. 3. – С. 101248. – Электронный ресурс. – URL: https://doi.org/10.1016/j.ijme.2025.101248 (дата обращения: 18.08.2025).
8. Oc Y., Gonsalves C., Quamina L. T. Generative AI in higher education assessments: Examining risk and tech-savviness on student’s adoption //Journal of Marketing Education. – 2025. – Т. 47. – №. 2. – С. 138-155.
9. Sahar R., Munawaroh M. Artificial intelligence in higher education with bibliometric and content analysis for future research agenda //Discover Sustainability. – 2025. – Т. 6. – №. 1. – С. 401. – Электронный ресурс. – URL: https://doi.org/10.1007/s43621-025-01086-z (дата обращения: 18.08.2025).
Количество просмотров: 23 |
Добавить комментарий