В недавнем исследовании, проведенном специалистами из Университета Рединга и Университета Эссекса в Великобритании, было выяснено, что большинство преподавателей не могут различить, когда работы были написаны искусственным интеллектом, а именно с помощью ChatGPT. Эти результаты были опубликованы в известном научном журнале Plos One и вызвали значительный интерес в академических кругах.
Исследование началось с того, что ученые с согласия администрации университетов подготовили и отправили на оценку 63 работы, созданные с помощью нейросети GPT-4. Эти работы были представлены как ответы на вопросы онлайн-экзаменов по пяти различным учебным модулям. Ответы были отправлены без редактирования от имени вымышленных студентов, чтобы исключить любую предвзятость со стороны проверяющих.
Структура экзаменов включала два типа заданий: короткие ответы длиной до 200 слов и более подробные эссе длиной в 1500 слов.
Интересно, что независимо от типа задания, подавляющее большинство работ, созданных искусственным интеллектом, прошло проверку, и 94% из них были оценены как работы реальных студентов. К тому же, средние оценки за работы, созданные AI, оказались выше, чем за работы студентов-психологов.
Особенно это было заметно в заданиях, требующих кратких ответов, в то время как на более длинных эссе студенты показали лучшие результаты, предположительно из-за более глубоких и продуманных аргументов.
Кстати, в российских вузах искусственный интеллект при подготовке работ или домашних заданий использует почти каждый второй студент.
Присоединяйтесь к ОК, чтобы подписаться на группу и комментировать публикации.
Нет комментариев