Рекомендации WAME по ChatGPT и чат-ботам в отношении научных публикаций

Крис Зелински (1), Маргарет Винкер (2), Ракеш Аггарвал (3), Лоррейн Феррис (4), Маркус Хайнеманн (5), Хосе Флоренсио Лапенья младший (6), Санджай Пай (7), Эдсел Инг (8), Лесли Ситром (9) от имени Правления WAME

Вице-президент WAME; Центр глобального здравоохранения, Университет Винчестера, Великобритания

Попечитель, WAME

Президент WAME; заместитель редактора Журнала гастроэнтерологии и гепатологии; Директор Института последипломного медицинского образования и исследований имени Джавахарлала, Пудучерри, Индия

Попечитель WAME; профессор Школы общественного здравоохранения Далла Лана, Университет Торонто

Казначей WAME; Главный редактор, торакальный и сердечно-сосудистый хирург

Секретарь WAME; Редактор Филиппинского журнала отоларингологической хирургии головы и шеи; Профессор Университета Филиппин в Маниле

Директор WAME; Рабочий комитет Национального медицинского журнала Индии 

Директор WAME; Редактор раздела "Канадский журнал офтальмологии"; Профессор Университета Торонто

Директор WAME; Главный редактор отдела текущих медицинских исследований и мнений; Тематический редактор журнала Psychiatry for Clinical Therapeutics; Клинический профессор психиатрии и поведенческих наук, Нью-Йоркский медицинский колледж

Журналы начали публиковать статьи, в которых чат-боты, такие как ChatGPT, указаны в качестве соавторов. Следующие рекомендации WAME предназначены для информирования редакторов и оказания им помощи в разработке политики в отношении чат-ботов для своих журналов, чтобы помочь авторам понять, как можно объяснить использование чат-ботов в их работе, и удовлетворить потребность всех редакторов журналов иметь доступ к инструментам проверки рукописей. В этой быстро развивающейся области мы ожидаем, что эти рекомендации также будут развиваться.

Чат-бот - это инструмент, “[d] разделенный [искусственным интеллектом], автоматизированными правилами, обработкой естественного языка (NLP) и машинным обучением (ML) ... [для] обработки данных для предоставления ответов на запросы всех видов”. (1) Искусственный интеллект (ИИ) “в широком смысле относится к идее компьютеров, которые могут обучаться и принимать решения по-человечески”. (2) Чат-боты использовались в последние годы многими компаниями, в том числе в сфере здравоохранения, для обслуживания клиентов, маршрутизации запросов или сбора информации.

ChatGPT is a recently-released chatbot that “is an example of generative AI, because it can create something completely new that has never existed before,” (3) in the sense that it can use existing information organized in new ways. ChatGPT has many potential uses, including “summarising long articles, for example, or producing a first draft of a presentation that can then be tweaked.” (4) It may help researchers, students, and educators generate ideas (5), and even write essays of a reasonable quality on a particular topic. (6) Universities are having to revamp how they teach as a result. (7)

ChatGPT has many limitations, as recognized by its own creators: “ChatGPT sometimes writes plausible-sounding but incorrect or nonsensical answers…Ideally, the model would ask clarifying questions when the user provided an ambiguous query. Instead, our current models usually guess what the user intended… While we’ve made efforts to make the model refuse inappropriate requests, it will sometimes respond to harmful instructions or exhibit biased behavior.” (8) And, “[u]nlike Google, ChatGPT doesn’t crawl the web for information on current events, and its knowledge is restricted to things it learned before 2021, making some of its answers feel stale.” (9) OpenAI is currently working on an improved version that is “better at generating text than previous versions” and several other companies are creating their own “generative AI tools.” (7)

Чат-боты “обучаются” с использованием библиотек существующих текстов. Следовательно, в ответ на конкретный ввод от человека-оператора (“вопрос” или “начальный текст”) чат-боты отвечают “ответом” или другим выводом. В конечном счете, этот результат включает в себя подборку учебных материалов, адаптированных в соответствии с алгоритмами. Поскольку чат-боты не обладают сознанием (10), они могут только повторять и переставлять существующий материал. В их заявлениях нет никакой новой мысли: они могут быть оригинальными только случайно. Поскольку чат-боты опираются на библиотеку существующих текстов, на которых они были обучены, существует риск того, что при некоторых обстоятельствах они могут повторить их дословно, не раскрывая их источник. Согласно недавнему препринту, в котором для создания текста использовался ChatGPT, “Процент правильных ссылок в предварительном тексте, полученном непосредственно из ChatGPT, составил всего 6%”. (11) Таким образом, если результаты чат-бота должны быть опубликованы в академическом журнале, во избежание плагиата автор-человек и редактор должны убедиться, что текст содержит полные правильные ссылки в точно такой же степени, как требуется от авторов-людей.

Что еще более тревожно, ChatGPT на самом деле может быть способен лгать намеренно - “интенциональность важна, поскольку лжец знает, что высказываемое им утверждение ложно, но все равно делает это для достижения какой-то цели ...”, как продемонстрировал Дэвис. (12) Конечно, ChatGPT не обладает разумом и не “знает”, что лжет, но его программирование позволяет ему фабриковать ”факты".

Чат-боты не являются юридическими лицами и не обладают правосубъектностью. Никто не может подать в суд или наказать чат-бота каким-либо образом. Условия использования и принятые обязательства за результаты использования программного обеспечения изложены в лицензионной документации, выпущенной компанией, предоставляющей программное обеспечение. Такая документация аналогична документации, создаваемой для других инструментов написания, таких как Word, PowerPoint и т.д. Точно так же, как Microsoft не несет ответственности за все, что кто-либо пишет с помощью Word, создатель ChatGPT OpenAI не несет ответственности за любой текст, созданный с использованием их продукта: их условия использования включают возмещение убытков, отказ от ответственности и ограничения ответственности. (13) Только пользователи ChatGPT могут нести потенциальную ответственность за любые ошибки, которые он допускает. Таким образом, внесение ChatGPT в список авторов, что уже происходит (14, 15) и даже поощряется (16), может быть неверным направлением и не иметь юридической защиты.

Хотя ChatGPT может оказаться полезным инструментом для исследователей, он представляет угрозу для научных журналов, поскольку статьи, созданные ChatGPT, могут содержать ложное или плагиатное содержимое в опубликованной литературе. Экспертная оценка может не обнаружить контент, сгенерированный ChatGPT: у researchers может возникнуть трудность отличить тезисы, сгенерированные ChatGPT, от тех, что написаны авторами. (17) Те, кто наиболее осведомлен об этом инструменте, насторожены: крупная конференция по искусственному интеллекту запретила использование ChatGPT и других инструментов языка искусственного интеллекта для докладов конференции. (17)

С другой стороны, чат-боты помогают создавать поддельные документы; такой акт противоречит самой философии науки. Можно утверждать, что использование чат-ботов напоминает бумажные фабрики, хотя и с небольшим отличием - хотя у последних явно есть намерение ввести в заблуждение, это не всегда может быть верно для использования чат-ботов. Однако сам факт того, что ИИ способен помогать генерировать ошибочные идеи, делает его ненаучным и ненадежным, и, следовательно, редакторы должны беспокоиться.

Кстати, в 2022 году OpenAI, той же компанией, которая создала ChatGPT, также выпустила DALL-E 2 (18), еще одну систему на основе ML, которая может создавать реалистичные изображения и рисунки на основе описания, представленного ей в виде текста на естественном языке. Совсем недавно Google также выпустила аналогичный продукт под названием Imagen. (19) Эти инструменты также вызвали проблемы, в чем-то схожие с проблемами с ChatGPT. Интересно, что каждое изображение, созданное с помощью DALLE2, включает подпись в правом нижнем углу, указывающую происхождение изображения (20); однако его можно легко удалить с помощью одного из нескольких простых методов, которые требуют веб-поиска.

С появлением ChatGPT и DALL-E 2, а также с появлением большего количества инструментов, редакторам необходимо установить политику журнала в отношении использования такой технологии и потребовать, чтобы инструменты были способны обнаруживать контент, который она генерирует. Рекомендации по научной публикации для авторов должны разрабатываться при участии различных групп, включая исследователей, чей родной язык не является английским. Это может занять некоторое время. Тем временем мы предлагаем следующие рекомендации для редакторов и авторов.

Рекомендации WAME:

1. Чат-боты не могут быть авторами Чат-боты не могут соответствовать требованиям к авторству, поскольку они не могут понимать роль авторов или брать на себя ответственность за статью. Чат-боты не могут соответствовать критериям авторства ICMJE, в частности “Окончательное одобрение версии, подлежащей публикации” и “Согласие нести ответственность за все аспекты работы в обеспечении надлежащего расследования и разрешения вопросов, связанных с точностью или целостностью любой части работы”. (21) Чат-бот не может понять заявление о конфликте интересов или иметь юридическое право подписывать заявление. Чат-боты не имеют аффилированности, независимой от их создателей. На них не распространяются авторские права. Авторы, отправляющие рукопись, должны убедиться, что все те, кто указан в качестве авторов, соответствуют критериям авторства, что явно означает, что чат-боты не должны включаться в качестве авторов.

2. Авторы должны быть прозрачны при использовании чат-ботов и предоставлять информацию о том, как они использовались. Поскольку в настоящее время эта область быстро развивается, авторы, использующие чат-бота для написания статьи, должны заявить об этом факте и предоставить полные технические характеристики используемого чат-бота (название, версия, модель, исходный код) и метод применения в статье, которую они отправляют (структура запроса, синтаксис). Это согласуется с рекомендацией ICMJE о признании помощи в написании. (22)

3. Авторы несут ответственность за работу, выполненную чат-ботом в их статье (включая точность изложения и отсутствие плагиата), а также за соответствующую атрибуцию всех источников (включая материалы, подготовленные чат-ботом). Авторы-люди статей, написанных с помощью чат-бота, несут ответственность за вклад, вносимый чат-ботами, включая их точность. Они должны быть в состоянии утверждать, что в их статье нет плагиата, в том числе в тексте, созданном чат-ботом. Авторы-люди должны обеспечить надлежащую атрибуцию всех цитируемых материалов, включая полные цитаты. Они должны объявлять конкретную функцию запроса, используемую с чат-ботом. Авторам необходимо будет искать и ссылаться на источники, подтверждающие заявления чат-бота. Поскольку чат-бот может быть сконструирован так, чтобы пропускать источники, которые противоречат точкам зрения, выраженным в его выходных данных, обязанностью авторов является поиск, рецензирование и включение таких противоположных мнений в свои статьи.

4. Редакторам нужны соответствующие инструменты, помогающие им обнаруживать контент, созданный или измененный искусственным интеллектом, и эти инструменты должны быть доступны независимо от их платежеспособности. Редакторы многих медицинских журналов используют подходы к оценке рукописей из 20-го века, но теперь сталкиваются лицом к лицу с инновациями ИИ и отраслями из 21-го века, включая манипулированный плагиатом текст и изображения, а также документы, сгенерированные бумажными фабриками. Они уже были в невыгодном положении, пытаясь отделить законное от сфабрикованного, и чат-боты, такие как ChatGPT, выводят эту задачу на новый уровень. Редакторам необходим доступ к инструментам, которые помогут им эффективно и точно оценивать контент. Издатели, работающие через STM, уже разрабатывают такие инструменты. (23) Такие инструменты должны быть доступны редакторам, независимо от способности платить за них, на благо науки и общественности. Упрощение их использования путем включения в издательское программное обеспечение с открытым исходным кодом, такое как Open Journal Systems от Public Knowledge Project (24), и обучения использованию и интерпретации результатов отбора сделало бы автоматизированный отбор представленных рукописей столь необходимой реальностью для многих редакторов.

Мы поощряем комментарии и обратную связь от участников WAME и других читателей. Пожалуйста, свяжитесь с нами по адресу <mwinker@wame.org>.

Конкурирующие интересы: Все авторы сообщают, что у них нет конкурирующих интересов, кроме какой-либо принадлежности к редакторам.

Ссылки

  1. Что такое чат-бот? Инфраструктура Oracle Cloud. https://www.oracle.com/chatbots/what-is-a-chatbot / Дата обращения 18 января 2023 года.
  2. Ньюман Дж. ChatGPT? Стабильное распространение? Объяснен генеративный жаргон искусственного интеллекта. Быстрая компания. 26 декабря 2022 года. https://www.fastcompany.com/90826308/chatgpt-stable-diffusion-generative-ai-jargon-explained. Дата обращения 18 января 2023 года.
  3. Марр Б. Как ChatGPT повлияет на вашу работу, если вы работаете в сфере рекламы и маркетинга? Forbes. 17 января 2023 года. https://www.forbes.com/sites/bernardmarr/2023/01/17/how-will-chatgpt-affect-your-job-if-you-work-in-advertising-and-marketing/?sh=241ef86c39a3 Дата обращения 18 января 2023 года.
  4. Нотон Дж. Бот ChatGPT сейчас вызывает панику, но скоро он станет таким же обычным инструментом, как Excel. The Guardian. 7 января 2023 года. https://www.theguardian.com/commentisfree/2023/jan/07/chatgpt-bot-excel-ai-chatbot-tech Дата обращения 18 января 2023 года.
  5. Руз К. Не запрещайте ChatGPT в школах. Обучайте с его помощью. NYTimes. 12 января 2023 года.https://www.nytimes.com/2023/01/12/technology/chatgpt-schools-teachers.html Дата обращения 18 января 2023 года.
  6. Херн А. ИИ-бот ChatGPT поражает ученых навыками написания эссе и удобством использования. The Guardian. 4 декабря 2022 года. https://www.theguardian.com/technology/2022/dec/04/ai-bot-chatgpt-stuns-academics-with-essay-writing-skills-and-usability Дата обращения 18 января 2023 года.
  7. Хуан К. Обеспокоенные чат-ботами A.I., университеты начинают пересматривать методы преподавания. NYTimes. 16 января 2023 https://www.nytimes.com/2023/01/16/technology/chatgpt-artificial-intelligence-universities.html Дата обращения 18 января 2023 года.
  8. ChatGPT. Открытый искусственный интеллект.https://openai.com/blog/chatgpt / Дата обращения 18 января 2022 года.
  9. Руз К. Блеск и странность ChatGPT. NYTimes. 5 декабря 2022 года. https://www.nytimes.com/2022/12/05/technology/chatgpt-ai-twitter.html Дата обращения 18 января 2023 года.
  10. Вэлланс К. Инженер Google говорит, что система искусственного интеллекта Lamda может иметь свои собственные ощущения. Новости BBC. 13 июня 2022 года. https://www.bbc.co.uk/news/technology-61784011 Дата обращения 18 января 2023 года.
  11. Бланко-Гонсалес А., Кабесон А., Секо-Гонсалес А. и др. Роль искусственного интеллекта в разработке лекарств: проблемы, возможности и стратегии. arXiv 2022. https://doi.org/10.48550/arxiv.2212.08104.https://arxiv.org/abs/2212.08104 Дата обращения 18 января 2023 года. [препринт]
  12. Дэвис П. Неужели ChatGPT только что солгал мне? 13 января 2023 года. Научная кухня. https://scholarlykitchen.sspnet.org/2023/01/13/did-chatgpt-just-lie-to-me / Дата обращения 18 января 2023 года.
  13. Условия использования. OpenAI. 13 декабря 2022 года. https://openai.com/terms / Дата обращения 18 января 2023 года.
  14. О'Коннор С, ChatGPT. Открытые платформы искусственного интеллекта в образовании медсестер: инструменты для академического прогресса или злоупотребления? Образовательная практика медсестер. 2023 Январь; 66:103537. doi: 10.1016 / j.nepr.2022.103537. Epub 2022, 16 декабря. PMID: 36549229.
  15. Генеративный предварительно обученный трансформер ChatGPT; Жаворонков А. Рапамицин в контексте пари Паскаля: перспектива генеративного предварительно обученного трансформера. Онкология. 21 декабря 2022 года;9:82-84. doi: 10.18632 /oncoscience.571. PMID: 36589923; PMCID: PMC9796173.
  16. Объявляйте конкурс тематических отчетов, написанных при содействии ChatGPT. Cureus. 17 января 2023 года. https://www.cureus.com/newsroom/news/164 . Дата обращения: 20 января 2023 года. Дата обращения 20 января 2023 года.
  17. Else H. Тезисы, написанные ChatGPT, обманывают ученых. Природа 613, 423 (2023). doi: https://doi.org/10.1038/d41586-023-00056-7 https://www.nature.com/articles/d41586-023-00056-7 Дата обращения 18 января 2023 года.
  18. https://openai.com/dall-e-2 /18. DALL-E 2. OpenAI. . Дата обращения 20 января 2023 года.
  19. Imagen. Google. https://imagen.research.google . Дата обращения 20 января 2023 года.
  20. Мишкин П., Ахмад Л., Брандейдж М., Крюгер Г., Састри Г. Предварительный просмотр DALL · E 2 - Риски и ограничения. Github. 2022. https://github.com/openai/dalle-2-preview/blob/main/system-card.md Дата обращения 20 января 2023 года.
  21. Кто такой автор?, Определяющий роль авторов и соавторов. ICMJE. https://www.icmje.org/recommendations/browse/roles-and-responsibilities/defining-the-role-of-authors-and-contributors.html. Дата обращения 18 января 2023 года.
  22. https://www.icmje.org/recommendations/browse/roles-and-responsibilities/defining-the-role-of-authors-and-contributors.html 22. Участники, не являющиеся авторами, определяющие роль авторов и соавторов. ICMJE. . Доступ получен 18 января 2023 года.
  23. Центр целостности STM. STM.https://www.stm-assoc.org/stm-integrity-hub . Дата обращения 18 января 2023 года.
  24. Открытые журнальные системы. Проект по информированию общественности. https://pkp.sfu.ca/software/ojs . Дата обращения 18 января 2023 года.

Примечание к редактированию: Текст исправлен (DALL-E) 2 февраля 2023 года.

Цитируйте как: Зелински С., Винкер М., Аггарвал Р., Феррис Л., Хайнеманн М., Лапена Дж.Ф., Пай С., Инг Е., Цитром Л. для совета директоров WAME. Чат-боты, ChatGPT и научные рукописи: рекомендации WAME по ChatGPT и чат-ботам в отношении научных публикаций. WAME. 20 января 2023 года. https://wame.org/page3.php?id=106

WAME призывает участников WAME опубликовать это заявление в своих журналах с указанием ссылки на оригинальную публикацию на WAME.org . WAME перечислит цитаты из журналов и ссылки на переиздания на этой странице. Пожалуйста, свяжитесь с Маргарет Винкер по адресу <mwinker@wame.org > с любыми вопросами.

©2023 WAME. Все права защищены.

Продолжая использовать наш сайт, вы даете согласие на обработку файлов cookie, которые обеспечивают правильную работу сайта.