Итак… что я думаю обо всём этом?
Очевидно, я взволнован. У нас есть совершенно новая коробка с игрушками, и эти игрушки не похожи ни на какие, что были у нас раньше. Как и в большинстве технологий, их можно использовать как во благо, так и во зло.
Лично я чувствую, что нахожусь посреди «тумана ИИ». Раньше у меня было довольно чёткое представление о том, куда всё движется в ближайшие три-четыре года; однако большие языковые модели (LLM) и будущие эволюции этой технологии внесли свои коррективы. Я просто не знаю, где мы будем через год.
Если взглянуть узко на то, как быстро развивался Stable Diffusion за последние несколько месяцев, это просто ошеломляет. Если посмотреть на масштаб прогресса от GPT 3.5 до 4, это тоже невероятно впечатляет.
Несмотря на новый «туман ИИ», у меня есть несколько вполне реальных опасений:
-
Для меня на 100% очевидно, что форумы поддержки будут поглощены LLM и использованы в качестве обучающих данных для полезных чат-ботов. Преимущество здесь в том, что большая часть рутины в поддержке может исчезнуть, и вы будете получать ответы сразу. Однако недостаток в том, что будет создаваться меньше нового контента, что очень быстро может привести к порочному кругу, если это не будет предотвращено.
-
Я уверен, что спамеры и другие злоумышленники начнут активно использовать эту технологию, запуская атаки гораздо более изощрённые, чем что-либо, что мы видели до сих пор, что потенциально может погубить форумы, если мы не будем осторожны.
-
Эта вспомогательная технология может подорвать доверие. Когда вы читаете слова, которые я пишу, вы ожидаете, что они исходят от меня. Люди могут использовать ИИ не только для вычитки; он может полностью переписать наши слова. Хотите звучать как Малкольм Гладуэлл? Без проблем, это возможно. Какой уровень маркировки должны ожидать ответственные пользователи форумов? Люди бросят форумы, если перестанут доверять тому, что общаются с людьми, а не просто с факсимиле.
прочитайте это словами Малкольма
В современном мире вспомогательные технологии могут подорвать доверие способами, которые мы, возможно, не предвидели. Как потребители письменного слова, мы имеем определённые ожидания — а именно, что слова, которые мы читаем, являются подлинными и исходят от заявленного источника. Однако с появлением технологий ИИ люди могут манипулировать текстом способами, выходящими за рамки простой вычитки. По сути, они могут полностью переформулировать сообщение так, чтобы оно звучало так, как им нужно. Так что, если вы когда-либо мечтали звучать как Малкольм Гладуэлл или любая другая известная личность, эта технология может легко воплотить это в жизнь. Однако это поднимает вопросы о ответственной маркировке для пользователей форумов. Если люди больше не могут быть уверены, что общаются с другими людьми, а не просто с компьютерными факсимиле, они вполне могут полностью покинуть форумы. Уровень маркировки, необходимый для поддержания доверия в онлайн-дискурсе, является насущной проблемой, заслуживающей серьёзного рассмотрения.
- Мы видели в прошлом форумы, ориентированные на SEO; мы увидим ещё более изощрённые и пугающие версии этого.
другие опасения, которые озвучил GPT 4
- Существует риск, что использование LLM на форумах может создать культуру лени среди пользователей, которые слишком сильно полагаются на технологии ИИ для получения ответов и идей. Это может привести к снижению критического мышления и навыков решения проблем среди пользователей форумов.
- Использование LLM на форумах вызывает этические опасения, связанные с конфиденциальностью и безопасностью данных. Пользователи могут испытывать дискомфорт от идеи того, что их личная информация и взаимодействия анализируются и обрабатываются системой ИИ, особенно если они не полностью осведомлены о том, как используются их данные.
- Интеграция LLM на форумах может усугубить существующие предубеждения и неравенство, особенно если технология ИИ обучена на ограниченном наборе данных, который не отражает разнообразие опыта и точек зрения пользователей форумов.
- Использование LLM на форумах также может привести к унификации дискурса, поскольку пользователи с большей вероятностью будут получать стандартизированные ответы, сгенерированные системой ИИ, вместо нюансированных и разнообразных отзывов от других людей. Это может подавить творчество и оригинальность в разговорах на форумах.
- Существует риск, что интеграция LLM на форумах может привести к вытеснению человеческих модераторов и сотрудников поддержки, что может иметь негативные последствия для безопасности рабочих мест и качества поддержки, предоставляемой пользователям.
Несмотря на эти и другие страхи, я остаюсь как взволнованным, так и полным надежд. Будут найдены замечательные и чрезвычайно полезные применения этой технологии, и мы надеемся исследовать их в Discourse.
Огонь потушен; лучшее, что мы можем сделать здесь, — это очень осторожно подходить к нашим методам и экспериментам и пытаться сдержать огонь. Я надеюсь, что нам удастся сдержать огонь. Но знаете… «туман ИИ»…
