'

Журналистов начали заменять искусственным интеллектом. Чем это грозит

Испытавший новшество журналист считает, что оно служит просто личным помощником, но его коллеги встревожены
Вести-Ynet|
1 Еще фото
מנוע החיפוש של גוגל
מנוע החיפוש של גוגל
Журналист за работой
(Фото: Thaspol Sangsee / Shutterstock.com)
Новая разработка компании Google в сфере искусственного интеллекта под названием Genesis сможет сама создавать статьи вместо журналистов, сообщает 23 июля Ynet.
Как пишет американская газета The New York Times, Google ознакомила со своим новшеством видных журналистов этой газеты, а также The Washington Post и The Wall Street Journal, представив технологию как "ответственную, базирующуюся на актуальных материалах, событиях и фактах, обрабатывающую их и выдающую надежные свежие новости".
Компания Google пояснила, что новая технология не может полноценно заменить работу журналистов и репортеров, но может помочь им создавать новые стили написания и заголовков для облегчения рабочего процесса.
Испытавший новшество журналист подтвердил эту оценку и сказал, что оно служит своего рода личным помощником журналиста для автоматизации некоторых процессов, благодаря чему высвобождается время для других вещей.
Однако были высказаны и другие версии: некоторые ознакомившиеся с продуктом специалисты назвали его "вызывающим беспокойство", потому что он обладает потенциалом полного замещения журналиста по мере усовершенствования технологической базы искусственного интеллекта.
Из компании Google передали, что находятся на первых этапах разработки идей, которые могли бы помочь журналистам в их работе, улучшить их продуктивность, но при этом не лишая журналистов важных профессиональных функций.
В последнее время СМИ неоднократно предупреждают об опасности внедрения искусственного интеллекта в журналистику. На иврите система пока еще нуждается в доработке, зато на английском она активно заменяет журналистов, еще в феврале писал на Ynet знаток новых технологий и гаджетов Денис Витчевский.
Он рассказал, что интернет-сайт Futurism разоблачил использование искусственного интеллекта при написании более 70 статей, опубликованных на известном технологическом портале CNET. Это были не расследования и не новости, а финансовые советы, которые публикуются для лучшей индексации в поисковиках и ведут на сайты компаний, предоставляющих финансовые услуги за деньги. Для написания статей использовалась технология, способная генерировать тексты на любые темы – наподобие модного нынче чата GPT (ChatGPT).
То был не первый подобный опыт. Немало экономических сайтов пользуются искусственным интеллектом для создания шаблонных текстов, насыщенных свежими данными – например, из квартальных отчетов. Но на сайте CNET, находящемся во владении компании RED Ventures, пошли еще дальше и позволили искусственному интеллекту писать целые статьи. Правда, под надзором и редактурой реальных людей. Однако финансовые советы публиковались без уведомления о том, что их произвел искусственный интеллект.
Когда об этом стало известно, CNET вступился за технологию, но прекратил публиковать сгенерированные ею статьи, причем прежде всего из-за выявленных в них ошибок. Однако тенденция была неумолима. Яркий пример тому – сайт Buzzfeed, который начал с публикации виральных фотографий и опросов, а затем разросся до сайта серьезных журналистских расследований.
Однако в декабре 2022 года этот сайт уволил 12% своих сотрудников и начал сотрудничать с технологией искусственного интеллекта OpenAI, на основе которой создан ChatGPT. Первый результат этого сотрудничества налицо: благодаря опросам, публикуемым для заполнения читателями, искусственный интеллект подбирает и создает контент, соответствующий каждому читателю лично.
Тем не менее использование искусственного интеллекта для задач, не связанных с производством шаблонных текстов, вызывает вопросы. Например, ударит ли это по журналистике. Ведь чату ChatGPT и ему подобным нет дела до качества материала. Они вообще не умеют оценивать качество. Зато они способны выявлять популярные тезисы, находящиеся в первых строках поисковиков. Если раньше журналист был заинтересован в создании качественного и интересного контента, чтобы рядом с ним разместить рекламу, то сегодняшние стратегии с использованием искусственного интеллекта способны приносить гораздо большие доходы.
Беспокоиться должны и в новостных компаниях, где принято брать за основу базовый материал репортера и при помощи редакторского мастерства превращать его в подробный текст с историческим контекстом. Теоретически, нет никаких причин, почему со временем искусственный интеллект не сможет обучиться этой премудрости и создавать из нескольких крупиц информации богатый новостной материал.
Это возможно, но будут ли такие материалы качественными? Последний опыт свидетельствует, что нет. Ведь для искусственного интеллекта вся информация равна – что популярный комментарий из социальной сети, что данные из Википедии. Ему неважно качество или достоверность источника. Он собирает по сети популярные высказывания на заданную тему и выдает салат. Поэтому без человеческого контроля продукт искусственного интеллекта может таить в себе ошибки и вводить читателей в заблуждение.
С другой стороны, искусственный интеллект способен производить тексты со скоростью, за которой не угнаться ни одному живому человеку. Это создает соблазн заполнять страницы таким текстами вне связи со степенью их качества.
Можно предположить, что сегодня многие читатели получают информацию, сгенерированную таким вот незамысловатым способом, а производящие такой контент сайты скрывают, что заменили человеческих редакторов – компьютерным искусственным интеллектом.
Оказались ли мы сейчас на пороге новой информационной революции? Пока трудно сказать. Любая попытка спрогнозировать динамику журналистики будет ангажирована личными предубеждениями и желаниями. Мы пока не можем точно оценить, как будет развиваться новая технология и будет ли развиваться вообще.
Комментарии
Автор комментария принимает Условия конфиденциальности Вести и соглашается не публиковать комментарии, нарушающие Правила использования, в том числе подстрекательство, клевету и выходящее за рамки приемлемого в определении свободы слова.
""