Виталик Бутерин раскритиковал использование ИИ в журналистике

Сооснователь Ethereum Виталик Бутерин высказался в X о проблемах, возникающих при использовании ИИ для создания текстов.
Бутерин раскритиковал распространенный подход, когда лаконичные списки искусственно расширяют до полноценных статей. Он считает, что в большинстве случаев это только мешает восприятию информации.
По его словам, GPT (модель, на основе которой работает ChatGPT) не структурирует текст лучше, а наоборот делает его менее полезным.
GPT создает “словесную кашу”, из которой сложнее извлечь полезные данные, чем если бы просто был список пунктовнаписал он.
Wordcel — это жаргонное слово, обозначающее людей, которые усложняют речь, используя ненужные длинные формулировки, чтобы казаться более умными. Их часто противопоставляют sharp rotators, которые больше ориентируются на математику, логику и практическое мышление.
Этот термин часто используется в саркастическом контексте, чтобы намекнуть, что речь человека перегружена, но его смысл остается предметом дискуссий.
Виталик Бутерин, говоря о «wordcel-шуме» в статьях, созданных ИИ, довольно точно выразил свою мысль. Он также считает, что этот недостаток может исчезнуть по мере развития технологий.
По мнению Бутерина, любые советы, связанные с ИИ, быстро теряют актуальность, поскольку технологии развиваются настолько стремительно, что через полгода все может измениться.
Подписчики Виталика Бутерина поддержали его мнение о слабости ИИ в текстах
Пользователи X поддержали точку зрения Виталика Бутерина о том, что ИИ-контент зачастую переусложнен и теряет смысл.
Абдул Рехман, руководитель DeFi-направления в Monad, написал, что его раздражает необходимость просить GPT отвечать коротко, потому что никто не хочет читать длинные и перегруженные абзацы.
Разработчик Web3 @cavypunk тоже считает, что статьи, написанные ИИ, бесполезны.
Я всегда ненавидел статьи, созданные ИИ… они скучные, перегруженные ненужными словами, которые отнимают время. Да, смысл в них есть, но его можно подать короче и интереснее — с человеческим подходомотметил он.
Позже он добавил, что статьи и контент в целом требуют «души и чего-то большего, чем способен дать ИИ».
ИИ — просто инструмент, проблема в спаме и контент-мусоре
Искусственный интеллект сам по себе не несет угрозы. Это мощный инструмент, который упрощает написание текстов, создание графики и решение сложных задач.
Однако его массовое использование для генерации контента без реальной ценности ведет к захламлению интернета.
Вы наверняка замечали: сайты, где статьи выглядят так, словно их писал робот, полны ключевых слов, но не несут смысла. Такой контент создается не для людей, а ради поисковых алгоритмов, что снижает общую ценность информации в сети.
Контент, сгенерированный ИИ, может быть формально правильным, но в нем часто отсутствует глубина и осмысленность. Однако это не мешает появлению все большего числа новостных платформ, где тексты пишут не люди, а алгоритмы.
Читатели этим явно недовольны. Они называют такие тексты «цифровым шумом», «контентной кашей», «бессмысленным потоком слов».
Это снижает уровень доверия к информации и мешает выстраивать подлинную связь с аудиторией. Кроме того, ИИ уже начали применять для написания комментариев в соцсетях и даже личных сообщений, все сильнее стирая грань между реальным и фальшивым общением.
Рекомендуем
