Неисправимость ChatGPT и конец преподавания*

Автор: Мартин Ленц, Хагенский университет (The incorrigibility of ChatGPT and the end of teaching)

Перевод: Мария Весте, Университет Линчепинга, Швеция

Предположим, вы стали свидетелем аварии и должны сообщить об этом в полицию. «Ну, красная машина ехала на большой скорости в мою сторону, а потом резко повернула налево», — восклицаете вы. Вы изо всех сил пытаетесь подобрать правильные слова, чтобы точно описать те события и людей, которые вы заметили и их точную последовательность. Будучи по натуре немного педантичной, вы продолжаете исправлять себя. «Сначала казалось, что водитель хотел меня сбить», — такая формулировка в конце концов вас устраивает. — Теперь представьте, что вы пытаетесь уточнить свои впечатления с помощью ИИ. Очевидно, что всегда есть возможность улучшить стиль и грамматику. Но можно ли ожидать, что ИИ (любая Большая Языковая Модель (LLM) улучшит точность ваших фактических утверждений? Нет. Но что это значит, если ИИ все равно используют для улучшения фактических утвердений?

Учитывая то, как работает ИИ, он не имеет опыта в каком-либо смысле. Скорее, он генерирует предложения, предсказывая наиболее вероятную последовательность слов на основе полученных данных из огромного количества текста, на котором он был обучен. Таким образом, он не может улучшить содержание утверждений, основанных на опыте, то есть невозможно исправить содержание текста. Хотя это само по себе не удивляет, последствия, которые эта невозможность имеет в контексте обучения, заслуживает пристального внимания. Обучение частично осуществляется в процессе исправления утверждений. Сейчас, когда люди используют ИИ как устройство не только для сокрытия своих плагиатов, но и для «решения» всевозможных вопросов, этот аспект становится ключевым.

Я неоднократно задавался вопросом, что именно идет не так в контексте обучения с использованием ИИ, и теперь я начинаю думать, что все сводится к потере исправляемости, и к потере понимания того, что вообще означает исправляемость. Короче говоря, видя, что это ИИ как устройство улучшает форму (письменных) текстов в удивительных масштабах, мы не замечаем, что оно обедняет наши отношения с эмпирическим содержанием. Далее я хотел бы исследовать эту потерю в контексте преподавания философии.

Что такое исправимость? Исправимость означает, что утверждение или текст можно исправить. Если я говорю, что идет дождь, вы можете исправить меня, указав, что на самом деле дождя нет. Мы постоянно предлагаем и получаем исправления. Мы улучшаем формулировку того, что мы видели, находя более подходящие фразы. Мы можем различать грамматические и стилистические исправления как исправления формы в отличие от содержания, но часто эти два вида исправлений трудно разделить. Фраза «идет дождь» формально правильна, когда ее используют носители языка, но то, что делает ее правильной для пользователей языка, — это то, как она применяется к общему опыту мира (в котором случается дождь). Если я попрошу вас уточнить свою формулировку, предложив, например, что на самом деле идет проливной дождь, а не просто дождь, я могу иметь в виду одновременно внимание к вашему опыту и общепринятый способ выражения такого опыта в языке. Когда вы думаете о своем опыте и способах его лингвистического выражения, вы, вероятно, будете использовать как лингвистические источники (языковые конвенции, литературу, социолект, который, как предполагается, ожидает ваша аудитория, и т. д.), так и нелингвистические источники (все, что вы можете почерпнуть из других модальностей восприятия). Самое главное, вы будете использовать связи между применением лингвистических ресурсов и нелингвистическим опытом. Другими словами, мы связываем лингвистические конвенции с (нелингвистическими) фактами.

ИИ, напротив, этого не делает. Не имея отношения к миру, он ограничен лингвистическими ресурсами; у него нет других модальностей восприятия, и он не может соотносить лингвистические и нелингвистические факты. Другими словами, хотя он может улучшать формулировки, его нельзя исправлять. Говоря языком Витгенштейна, все, что кажется правильным ИИ, является правильным — а это означает, что нет смысла различать правильное и неправильное. (Есть интересная статья о том, как это узнать на собственном опыте.) Таким образом, мы даже не должны говорить, что у ИИ галюцинации, когда ИИ «выдумывает». Для этого устройства нет значимого различия между галлюцинациями и правильным пониманием вещей.

Сомневаюсь, что я сообщаю здесь какие-либо новости. Так зачем же об этом говорить? Потому что и язык ИИ, и язык создателей этой технологии постоянно напоминают о том, что это устройство обучается, исправляется и совершенствуется. Да, оно совершенствуется в том, что уже делает, но не в каком-либо другом смысле. Это напоминание обманывает многих из нас, заставляя думать, что это улучшение того рода, с которым мы знакомы, то есть ИИ учиться и осваивает новое, прежде неведомое. Это присуждение ИИ нам знакомых  качеств обьясняет то, что ИИ теперь всё чаще воспринимается как содержательный, привлекательный или заботливый собеседник. ИИ (или мы сами себя) обманывает многих из нас, заставляя предполагать, что он может «учиться», будучи «исправленным». Но обучение для человека всегда подразумевает отношение (и как соотношение) к миру. Таким образом, главная путаница с ИИ заключается в том, что совершенствование ИИ в любом случае такое же, как мы пытаемся совершенствовать свой собственный способ самовыражения.

Как это влияет на преподавание (философии)? Есть много статей о закате гуманитарных наук в связи с появлением разнообразных ИИ устройств. Учитывая, как эта технология распыляет (не уничтожая полностью, но отрицая возможность закрепления четких координат) наше чувство авторства и нашу культуру чтения, я склонен думать, что весь наш подход к созданию текстов и чтению выйдет из моды и станет уделом зануд. Так же, как длинные соло на электрогитаре или клавишных, которые, казалось бы, были повсеместны в 70-х и 80-х годах, теперь являются уделом нескольких ботаников на YouTube. Так что, на мой взгляд, проблема не в том, что студенты подделывают тексты; проблема в том, что большинство текстов считаются неактуальными. Наряду с навыками и особенностями, которые необходимы для их создания. Умение писать хорошие тексты уже неактуально в мире, где так называемые лидеры обходятся без даже беглого просмотра своих брифингов. Но давайте вернемся к нашей теме. Мое предположение заключается в том, что утрата исправимости, присущая ИИ, является результатом более широкой тенденции, которая была четко признана в книге Гарри Франкфурта** «О бреде собачьем» (вы и без ИИ знаете как перевести выражение об экскрементах крупного рогатого млекопитащего мужского пола в английском язке означающем пренебрежение к сообщению на русский язык, где пренебрежение выражается отсылкой к мужскому половому органу человека) еще в 1986 году: как только вы понимаете, что можете убедить, не прибегая к методам оценки правдивости, вы можете вообще игнорировать правду. В конце концов, вопрос не в том, каким образом ИИ неисправим. Мы можем быстро это выяснить. Вопрос в том, почему мы позволяем исправлять себя устройству, которое не поддается исправлению.

Но это вопрос для умников. Таким образом, освоение длинных письменных текстов, не говоря уже об их написании, не кажется чем-то особенным, более того в настоящее время это не кажется многообещающим занятием. И не только потому, что у студентов есть стимулы подделывать свои работы, но и потому, что в принципе практически нет стимулов для создания таких работ. Зачем учиться играть на фортепиано, если есть клавишные инструменты с автоматическим аккомпанементом? Конечно, их звучание может быстро надоесть. Но кому какое дело, если это все, что есть в наличии? Итак, еще раз: проблема не в мошенничестве, а в неактуальности. Пишу это, я чувствую себя как динозавр, оплакивающий утрату своей естественной среды обитания. И, вероятно, это именно так: старик, жалующийся, что никто не ценит красоту, скрытую в искусстве, которое он так любит. И что с того? Действительно, что с того?

Что же остается учителям? Если вы не слишком беспокоитесь о плагиате, вы можете направить свою энергию на то, чтобы заставить людей думать, не анализируя тексты, а придумывая хорошие подсказки для ИИ или совершенствуя свои навыки видеомонтажа. Другими словами, хотя некоторые продукты (такие как хорошо написанные эссе) в будущем будут просто создаваться ИИ, вы можете помочь студентам улучшить «их» работу, сосредоточившись на том, чтобы помочь им использовать инструментарий этог и будущих устройств искусственного интеллекта. Однако остается вопрос: для чего нужен этот инструмент, если мы признаем, что написание текстов не имеет значения?

_________

* в моем переводе используется обозначение ИИ (искусственный интеллект) для обозначения разных программ (в статье – они обозначены как устройства), в оригинале Мартин Ленц упоминает программу ЧатГПТ, которая специализируется на обработке текстов

** В личном разговоре Мартин Ленц исправил мое (неинфомированное) представление о концепции БУЛШИТ, который нельзя потому, что это устойчивый философский термин. Я все же сохраню свою интерпретацию этого обозначения, которое вариативно в рамках разных языковых картин мира.

Leave a comment