В университетах внедряют прозрачные правила использования ИИ
Генеральный директор Edtech-компании «Лань» Александр Никифоров объяснил, что искусственный интеллект (ИИ) становится инструментом для развития критического мышления студентов, а не заменой самостоятельной работы, при условии прозрачного и осознанного использования в вузах.
По его словам, ИИ помогает на этапе сбора информации и обработки данных, однако ключевые выводы и аргументацию формулирует сам студент.
«На старте работы — при подготовке реферата, курсовой или диплома — нейросети помогают уточнить направление, собрать источники, обработать данные. Но именно студент формулирует проблему, выстраивает аргументацию и делает выводы. В любых исследовательских проектах ИИ позволяет обрабатывать массивы информации, выявлять скрытые связи и подсказывать новые подходы. И это не подмена мышления, а инструмент для более глубокого анализа. А преподаватель здесь — не контролер, а наставник, который учит сомневаться, копать глубже и не верить без подтверждения данных ссылками на авторитетные источники даже алгоритму», — пояснил Никифоров в эфире радио Sputnik.
Эксперт отметил, что при использовании ИИ могут возникать риски, такие как недостоверные материалы или эффект «эхо-камеры», когда алгоритм предлагает только одну точку зрения. В связи с этим университеты разрабатывают прозрачные механизмы контроля. Например, в 2024–2025 годах НИУ ВШЭ совместно с «Яндекс Образованием» провел пилотный проект, в рамках которого студенты отмечали, на каких этапах дипломной работы использовали ИИ. В МГПУ студенты обязаны указывать факт применения ИИ прямо в тексте работы.
«При соблюдении трех условий: прозрачность, верифицируемость и человеческий контроль — нейросети станут надежными помощниками в высшем образовании. Не заменой мышления, а его катализатором», — заключил он.
Подписывайтесь на канал РИАМО в MAX.
