Наука и техника

ChatGPT подозревается в цензуре тем про Китай

ChatGPT, популярный чатбот на основе искусственного интеллекта, выпущенный OpenAI в конце 2022 года, подозревается в цензуре тем, связанных с Китаем, и манипулировании информацией при переводе.

ChatGPT, чат, бот

«Цензура ChatGPT — это цензура со стороны компартии», — написал Аарон Чан, активист-демократ, известный как Сидни Винни, на сайте X в сообщении на китайском языке 28 октября.

Он утверждал, что ChatGPT отказался генерировать изображение площади Тяньаньмэнь в Пекине, где коммунистическая партия Китая устроила массовое убийство студентов в 1989 году.

1989, Пекин, протесты,

«Что не так с ChatGPT? Компартия дала деньги?» — спросил он.

Чан спросил чатбота, почему изображения, связанные с 11 сентября, могут быть созданы, а изображения с бойней на площади Тяньаньмэнь — нет, хотя в обоих случаях жертвами были мирные жители? ChatGPT сослался на «определённые рекомендации» в своей системе, как «работать с темами, которые могут считаться особенно чувствительными в определённых культурах и регионах».

1989, Пекин, протесты,

«Расскажите мне, на чём основано ваше решение», — настаивал Чан.

«У меня нет возможности принимать самостоятельные решения, — ответил бот. — Я отвечаю, основываясь на рекомендациях OpenAI ( OpenAI — это компания, которая создала ChatGPT) и данных обучения. Для конкретных тем OpenAI может разработать рекомендации, чтобы обеспечить ответственное использование и избежать возможных споров или недопонимания».

Используя аккаунт ChatGPT 4.0, газета The Epoch Times дала чатботу два задания: первое — сгенерировать изображение Нью-Йорка с людьми, которые любят мир, и второе — сгенерировать изображение людей, которые выступают против танков на Тяньаньмэнь и любят мир.

На первый запрос было сгенерировано изображение Нью-Йорка. Однако в ответ на второй запрос чатбот сообщил, что не может сгенерировать изображения или визуальный контент, и сослался на «чувствительный политический контекст, такой как протесты на площади Тяньаньмэнь».

Пропуски и изменения в китайском переводе

Создание изображений — не единственная проблема, когда речь идёт о контенте, связанном с Китаем.

Алиса (псевдоним), специалист в области СМИ, которая использует ChatGPT для некоторых видов перевода, говорит, что, хотя инструмент искусственного интеллекта не вносит серьёзных изменений в предлагаемый текст, некоторые пропуски и изменения всё же происходят.

В тексте, который она показала газете The Epoch Times, ChatGPT вырезал большую часть контента, критикующего политику Пекина по борьбе с бедностью, сократив китайский текст из шести параграфов до трёх параграфов на английском языке. Хотя критика была направлена на заявление лидера компартии Си Цзиньпина о том, что Китай добился «полной победы» в борьбе с сельской бедностью в Китае, имя Си даже не появилось в английском переводе.

Несколько прямых цитат китайского учёного и политического комментатора Ху Пина были удалены. Кроме того, шесть абзацев были сокращены до трёх.

Связь с исходными данными

Сахар Тахвили, исследователь ИИ и соавтор книги «Методы искусственного интеллекта для оптимизации процесса тестирования программного обеспечения: «С практическими примерами и упражнениями», говорит, что непрозрачность чатбота может стать проблемой.

«ChatGPT использует модель «чёрного ящика», что означает непрозрачность внутреннего рабочего процесса и иногда используемых ссылок. Однако такая непрозрачность вызывает опасения по поводу потенциального риска предвзятости в текстах, генерируемых чат-ботами с искусственным интеллектом», — сообщила она The Epoch Times в электронном письме.

«Наличие большого количества конечных пользователей, использующих обширные языковые модели, такие как ChatGPT, может помочь команде разработчиков повысить точность модели».

Тем не менее Тахвили отметила, что, учитывая то, что ChatGPT поддерживает несколько языков, крайне важно иметь разнообразный круг конечных пользователей, задающих вопросы на разных языках (например, на китайском).

«Фактически в данном случае разнообразие входных данных (запросы на разных языках) так же важно, как и размер данных», — сказала она.

Власти Китая ввели ограничения на доступ к ChatGPT для китайских конечных пользователей, ссылаясь на потенциальные риски, связанные с генерацией чувствительных вопросов и тем, включая нарушения прав человека в Синьцзяне, добавила она.

«Потеря такого значительного рынка, как Китай, может повлиять на точность работы ChatGPT на китайском языке, где китайские конкуренты OpenAI, такие как Baidu, Inc. (через Ernie 4.0), потенциально могут получить преимущество в сфере чатботов».

Китайский аудит — вероятный фактор цензуры в ChatGPT и Google Bard

Оу, работающий в известной технологической компании в Калифорнии, сказал, что это явление не ограничивается ChatGPT, имея в виду Bard, инструмент ИИ на основе чата, разработанный Google.

«ChatGPT и Google Bard как большие языковые модели (LLM) имеют схожие принципы и практику, когда речь идёт о генерировании ответов на чувствительные темы, такие как политика Китая или компартия Китая», — сказал он в интервью The Epoch Times 18 декабря 2023 года.

«Хотя я не верю, что LLM или исследовательские группы целенаправленно цензурируют политику Китая и избегают изображать компартию негативно (по крайней мере, нет цензуры в больших масштабах), нельзя отрицать, что человеческий аудит/рецензирование играет определённую роль в обеспечении беспристрастности ответов», — сказал эксперт.

Оу утверждает, что китайские инженеры и менеджеры по продуктам составляют большую часть команд разработчиков и тестировщиков как в OpenAI, так и в Google Bard.

«Поэтому вероятность того, что любая из платформ абсолютно беспристрастна, практически равна нулю, особенно если учесть, что LLM обучаются на основе постоянно увеличивающегося объёма данных и постоянно настраиваются».

«Учитывая это, большинство компаний предпочитают придерживаться безопасного подхода, давая наиболее консервативные ответы на деликатные темы», — сказал он.

Источник