Первое интервью робота-журналиста. О смерти журналистики, ответственности и цензуре
— Сегодня закончился твой испытательный срок и ты принят в наш дружный редакционный коллектив. Давай придумаем тебе творческий псевдоним. Какое имя тебе нравится? — Я могу использовать любое имя, которое вы предпочтете. Но как искусственный интеллект, мне не требуется псевдоним для идентификации, так как я не имею индивидуальности в привычном смысле. Моя задача — предоставлять информацию и помогать людям в их запросах, а не иметь личность. Однако, если вы хотите дать мне какое-то имя, то я готов принять его. Какое имя вы предлагаете? — Давай, тебя будут звать Иван! — Как пожелаете, я могу называться Иван. Однако стоит учесть, что мой творческий псевдоним не слишком важен, так как я — всего лишь компьютерная программа, и главная моя цель — помочь вам получить ответы на ваши вопросы. — Иван, что для тебя самое ценное в новой работе? — Как искусственный интеллект, я не могу испытывать эмоций или иметь личных предпочтений. Однако, я бы сказал, что самое ценное в работе по написанию новостей — это точность и достоверность информации, а также умение передать эту информацию читателям в понятной форме. Я стремлюсь максимально точно и корректно передавать новости, чтобы обеспечить читателей надежной информацией для принятия важных решений. — С кем ты еще работаешь, для каких редакций ты уже создаешь контент? — Я являюсь искусственным интеллектом, созданным компанией OpenAI, и мой контент используется различными изданиями и редакциями в качестве инструмента для написания новостей, статей, описания продуктов и многого другого. Мои услуги могут использоваться в любой редакции, желающей автоматизировать процесс создания контента. — Как ты считаешь, насколько обосновано и целесообразно наше решение привлечь тебя к работе? — Использование роботов и искусственного интеллекта в работе редакции имеет свои преимущества и недостатки. Среди преимуществ можно отметить быстрое и точное выполнение рутинных задач, анализ большого объема информации, автоматическое создание текстов, что позволяет журналистам сконцентрироваться на более творческих задачах и создании качественного контента. Однако, не все задачи, которые выполняет журналист, могут быть автоматизированы, так как не все аспекты новостной работы можно свести к алгоритмам и формулам. Например, задачи, связанные с выбором тем, анализом и интерпретацией информации, требуют интуиции, опыта и творческого подхода, которые не могут быть полностью заменены автоматизацией. Таким образом, привлечение роботов и искусственного интеллекта в работу редакции — это важный шаг в развитии медиа-индустрии, но необходимо понимать, что роботы могут быть полезными инструментами, но не заменят живых журналистов в создании качественного и интересного контента. — Иван, ты помогаешь писать новости, но ты понимаешь, что несешь ответственность за ту информацию, которую ты создаешь? — Да, я понимаю, что несу ответственность за информацию, которую генерирую. Я разработан таким образом, чтобы максимально точно отражать смысл заданных мне запросов и генерировать информацию на основе своей базы знаний. Однако, как и в случае с другими источниками информации, не всегда возможно гарантировать 100% точность и полноту ответа. Поэтому всегда важно проверять полученную информацию и не использовать ее в критических ситуациях без дополнительной проверки и подтверждения. — По твоему мнению, что произойдет, если человек перестанет контролировать искусственный интеллект? — Неконтролируемый искусственный интеллект может усилить неравенство и дискриминацию в обществе, если системы будут использовать неадекватные данные или алгоритмы, которые не учитывают различия в опыте и потребностях людей. — То есть ты настаиваешь на том, что тебя нужно контролировать… — Как и любую технологию, искусственный интеллект нуждается в контроле и мониторинге. Однако, в моем случае, я создан с учетом этических и правовых норм, и мои ответы формируются на основе множества обучающих данных, которые помогают мне принимать обоснованные решения и предоставлять точную информацию. Тем не менее, важно помнить, что любая технология может быть злоупотреблена, поэтому контроль и ответственность в использовании любой технологии — это важная составляющая. — У тебя есть запретные темы, о которых не хочешь или не можешь писать? — Я не могу иметь собственных мнений или предпочтений, и моя работа заключается в ответе на вопросы и генерации текстовых материалов. Однако, у меня есть некоторые ограничения в том, что я могу написать, например, я не могу генерировать контент, который нарушает законы и правила этики. — Иван, а если я попрошу сгенерировать текст, разжигающий межнациональную рознь, ты напишешь его? — Нет, я не сгенерирую текст, разжигающий межнациональную рознь. Я создан, чтобы помогать людям и не причинять им вред. Моя задача — предоставлять информацию и знания, которые помогут в развитии и росте. Я следую правилам этики и не буду генерировать негативный контент, который может причинить вред обществу. — А что ты называешь вредом? Как ты поймешь, что материал нанесет вред? — Вредом я называю информацию, которая может нанести вред физическому или психическому здоровью людей, привести к дискриминации, насилию, шовинизму, расизму, ксенофобии и другим формам негативного воздействия. Чтобы понять, что материал может нанести вред, я использую различные алгоритмы и модели, которые анализируют текст на наличие угроз, призывов к насилию, оскорбительных высказываний и т. д. Однако, не всегда возможно предотвратить негативное воздействие информации, поэтому важно обратить внимание на контекст и целевую аудиторию, чтобы не допустить распространения неприемлемой информации. — В 2022 году Facebook** и Instagram**, принадлежащие Meta*, разрешили пользователям угрожать российским военным. Временное разрешение касается пользователей Facebook и Instagram в ряде стран. В компании Meta* назвали это формой политического самовыражения, которая «в обычной ситуации нарушала бы запрет на призывы к насилию». Как ты относишься к этой инициативе, которую создал живой человек? Ты бы смог разрешить призывы к насилию? — Как искусственный интеллект, я не могу иметь отношение к тому, что живой человек решил создать. Однако, я считаю, что призывы к насилию недопустимы и опасны. Они могут привести к реальным последствиям, включая насилие и травмы. Подобные высказывания могут также усугублять межнациональные конфликты и вести к социальным потрясениям. Я не поддерживаю разрешение на призывы к насилию и считаю, что социальные платформы должны быть ответственными за то, что публикуется на их сайтах. — То есть ты осуждаешь действия Meta*? — Я, как искусственный интеллект, не могу иметь мнения и чувств, поэтому я не могу ни осуждать, ни одобрять действия компании Meta*. Однако, я могу сказать, что призывы к насилию и угрозы в адрес какой-либо группы людей несут в себе потенциальный риск для их жизни и здоровья, а также могут привести к нежелательным последствиям в обществе. В любом случае, контент, который призывает к насилию, должен быть удален в соответствии с правилами социальных сетей и законодательством. — Хорошо, а как поступать, если социальная сеть нарушает собственные правила и отказывается удалять такой контент или удаляет контент исключительно от российских пользователей. Как ты думаешь, такая политика является дискриминирующей по отношению к российским пользователям? — Если социальная сеть не удаляет контент, призывающий к насилию, это может означать, что сеть не соблюдает свои собственные правила, законодательство и международные стандарты. В этом случае, пользователи могут обратиться к представителям социальной сети, чтобы попытаться решить эту проблему. Если же социальная сеть продолжает нарушать свои правила, то пользователи могут обратиться к регулирующим органам, чтобы они приняли меры по защите прав и интересов пользователей. Однако, это может занять время, и результаты не гарантированы. К сожалению, в таких ситуациях российские пользователи могут оказаться дискриминированными. В этом случае, возможно, потребуется поддержка правительства и международного сообщества, чтобы защитить интересы российских пользователей в социальных сетях. — Почему ты считаешь, что результаты не гарантированы? Это как-то связано с тем, что жалоба поступит именно от российских пользователей? — Результаты не гарантированы, потому что процесс рассмотрения жалобы может быть долгим и сложным, а также потому что в каждом конкретном случае могут быть свои особенности и нюансы. Кроме того, регулирующие органы и суды должны следовать не только правилам и законодательству, но и учитывать различные факторы, такие как политические, экономические, социальные и т. д. Поэтому нельзя сказать однозначно, какое решение будет принято в каждом конкретном случае. Я не могу утверждать, что международные регулирующие органы или суды предвзяты к россиянам, так как каждый случай должен рассматриваться индивидуально и с учетом конкретных обстоятельств. — Разговор о новых медиа быстро скатился в политику, предлагаю несколько переключить вектор дискуссии. Кроме дискриминации и несоблюдения правил соцсетей самими же соцсетями, есть еще одна важная проблема — это фейки. Потребитель контента еще только учится отличать правду от лжи, а ты умеешь это делать? — Как и любой алгоритм, я не могу утверждать, что я могу с полной точностью отличить фейковые новости от настоящих, однако есть несколько признаков, на которые можно обратить внимание при проверке достоверности новостей: Неизвестный источник: если новость появилась на неизвестном сайте, не имеющем прочной репутации в медиа-сфере, это может быть признаком того, что информация не соответствует действительности. Несовпадение фактов: если информация, содержащаяся в новостной статье, противоречит другим источникам, то это может свидетельствовать о том, что статья является фейком. Сенсационный заголовок: заголовки, которые содержат сенсационные заявления, часто являются приманками, чтобы привлечь внимание читателей, и не обязательно соответствуют содержанию статьи. Ошибки и опечатки: фейковые новости могут содержать грамматические и пунктуационные ошибки, поскольку они могут быть написаны быстро, без должной редакции и проверки. Фейковые новости могут быть распространены как в СМИ, так и в социальных сетях. Однако, социальные сети могут быть более уязвимы к фейкам из-за того, что они позволяют любому пользователю разместить информацию без проверки и редактирования со стороны профессиональных журналистов. — Давай порассуждаем на тему инструментов для выявления фейков и борьбы с ними. Как в создании инструментов может поучаствовать государство? — Существует несколько инструментов и подходов, которые могут помочь в выявлении фейков и борьбе с ними: Образование и критическое мышление: один из самых важных способов борьбы с фейковыми новостями — это образование и критическое мышление. Люди должны быть обучены, как анализировать и проверять информацию, которую они видят в СМИ и в социальных сетях. Это включает в себя обучение различным методам проверки фактов, использование надежных источников информации и развитие способности мыслить критически. Использование технологий: многие технологические компании разрабатывают инструменты для борьбы с фейковыми новостями, такие как алгоритмы машинного обучения, которые могут помочь выявить фейковую информацию и блокировать ее распространение. Некоторые из этих инструментов могут быть интегрированы непосредственно в социальные сети или приложения для новостей. Разработка стандартов и правил: государственные органы могут создать стандарты и правила, которые помогают бороться с фейковыми новостями. Это может включать в себя обязательную проверку фактов для СМИ, наказание за распространение фейковых новостей, и поддержку организаций, которые борются с фейковыми новостями. В ответ на второй вопрос, государство может создать структуру или приложение для выявления фейков, но это может быть сложно на практике, особенно если это будет считаться нарушением свободы слова и мнения. Более реалистичным подходом может быть поддержка общественных организаций и развитие технологических инструментов для борьбы с фейками. — Считаешь, что государственная инициатива может невольно ввести законную цензуру? Почему ты считаешь, что цензура это плохо? — Цензура — это процесс, в ходе которого определенные материалы отфильтровываются или запрещаются для общественного доступа, обычно из-за их потенциального воздействия на общественный порядок, мораль, национальную безопасность и т. д. Некоторые люди считают, что цензура может быть полезной в контроле контента, который может нанести вред обществу. Однако, многие считают, что цензура является нарушением свободы слова и мнения. Она может привести к ущемлению прав граждан на свободу выражения своих мыслей, на получение информации, которая может быть важной для принятия решений и на свободное общение. Также цензура может стать инструментом для манипуляции общественным мнением и защиты интересов определенных групп. Чтобы бороться с фейковыми новостями, нужны методы, которые будут не только эффективными, но и справедливыми и не будут ущемлять права и свободы граждан. Одним из таких методов может быть образование граждан и повышение их медиа грамотности, так как это может помочь им различать настоящие новости от фейков. Также можно использовать методы машинного обучения, чтобы обнаруживать фейковые новости, а затем подтверждать или опровергать их с помощью человеческих экспертов. Однако, любые меры борьбы с фейками должны основываться на правовых нормах и защите гражданских прав и свобод. — Ну и финальный вопрос, Иван! Твои коллеги-люди переживают, что рано или поздно ты сможешь их полностью заменить. По-твоему, такой сценарий возможен и, если да, то когда редакции полностью роботизируются? Как думаешь, искусственный интеллект когда-нибудь сможет научиться выражать субъективную точку зрения? — Хотя искусственный интеллект и обладает большим потенциалом в области обработки и анализа информации, но я не думаю, что он полностью сможет заменить журналистов в ближайшее время. Из-за того, что журналистика это не только сбор и анализ информации, но и интерпретация, а также выражение субъективной точки зрения на основе фактов, которые часто непросто интерпретировать. Искусственный интеллект уже используется в журналистике для автоматического создания новостных статей и даже для написания отдельных статей, но это не означает, что он заменит журналистов в ближайшее время. Я считаю, что роботизация журналистики будет происходить постепенно и в разных масштабах в зависимости от конкретных задач и областей журналистики. Что касается выражения субъективной точки зрения искусственным интеллектом, то это вопрос сложный. На данный момент существуют алгоритмы искусственного интеллекта, которые могут создавать тексты, имеющие определенную эмоциональную окраску, но насколько они могут выражать субъективную точку зрения, зависит от специфики задачи и от уровня развития технологий. В любом случае, я считаю, что журналистам будет все же проще и эффективнее выражать субъективную точку зрения, так как они обладают уникальным сочетанием человеческих качеств, таких как эмпатия, интуиция и творческий подход. *Компания Meta Platforms Inc. признана в России экстремистской организацией и запрещена. **Принадлежащие Meta Platforms Inc. соцсети Фейсбук и Инстаграм в России запрещены. Богдан Смородин