fbpx

Z wykorzystaniem AI w komunikacji medycznej wiąże się wiele obaw, w tym kwestie dotyczące autorstwa.

Najbardziej palącym pytaniem jest: “Czy uznawać chatbot, taki jak ChatGPT, za autora lub współautora w publikacji naukowej?

Odpowiedź AMWA (Amerykańskiego Stowarzyszenia Pisarzy Medycznych) jest jednoznaczna: Nie. Chociaż zdarzyły się już przypadki, gdzie autorzy umieścili ChatGPT na równi ze sobą, ale tak naprawdę nigdy nie powinno się to stać. Powiecie zaraz: “Chwileczkę, czy Ty przypadkiem nie promujesz pisania artykułów z AI?” Tak, i w artykule wyjaśnię, dlaczego to Ty powinieneś być autorem, a nie ChatGPT.

Szanowane organizacje i pisma wymieniają na liście autorów wyłącznie ludzi, bo tylko ludzie mogą wziąć odpowiedzialność za treść artykułu.

Jednak istotne jest, aby być świadomym roli AI w medical writingu i sposobu, w jaki wpływa na kryteria autorstwa, zasady poufności oraz inne aspekty pisania medycznego.

Czy to koniec pisarzy medycznych?

OpenAI, firma odpowiedzialna za rozwój ChatGPT, opublikowała statut, który głosi, że „Misją OpenAI jest zapewnienie, że ogólna inteligencja sztuczna (AGI) – przez co rozumiemy wysoko autonomiczne systemy, które przewyższają ludzi w większości ekonomicznie wartościowej pracy – przynosi korzyści całej ludzkości.”

Jako komunikatorzy medyczni, którzy wykonują „ekonomicznie wartościową pracę”, czy powinniśmy obawiać się, że zostaniemy „przewyższeni” – a może nawet zastąpieni?

Artykuł Wall Street Journal na temat wykorzystania AI w przemyśle farmaceutycznym podnosi te obawy. Diogo Rau, wiceprezes i główny informatyk oraz dyrektor ds. cyfrowych w firmie Eli Lilly, opisuje cel firmy farmaceutycznej polegający na zwiększeniu „cyfrowej siły roboczej” w celu oszczędności kosztów płac.

Eli Lilly wykorzystuje AI, aby ocenić, czy można zastąpić profesjonalnych tłumaczy. Wykorzystuje także AI do tworzenia wewnętrznych raportów klinicznych, co jest normalnie zadaniem personelu piszącego teksty medyczne. Rau mówi: „Nie będziemy musieli zatrudniać pisarzy medycznych przez kilka lat.”

Oczywiście, AI nie jest czymś nowym dla komunikatorów medycznych. Wielu ludzi w różnych branżach już teraz używa narzędzi AI do zadań związanych z optymalizacją wyników w wyszukiwarkach (SEO), edytowaniem i korektą.

Jednak, kiedy Rau wspomina o planach Eli Lilly dotyczących pomiaru produktywności ludzi w porównaniu do „cyfrowego odpowiednika człowieka”, warto bliżej przyjrzeć się wadom i zagrożeniom związanym z poleganiem na sztucznej inteligencji w kluczowych obszarach medical writingu.

Etyka i ChatGPT

Sztuczna inteligencja jest zaprogramowana do reagowania na polecenia i ma niewielką zdolność do rozróżniania faktów od fikcji lub nauki od dezinformacji. Artykuł w Fortune informuje między innymi o tym, że ChatGPT:

  • Napisał esej oparty na fałszywym przekonaniu, że szczepionki przeciwko COVID-19 są niebezpieczne.
  • Tworzył propagandę naśladującą styl rządu rosyjskiego lub chińskiego.
  • Generował dezinformację na temat zamieszek z 6 stycznia w Kapitolu Stanów Zjednoczonych, imigracji i traktowania mniejszości Ujgurów w Chinach.

W artykule „Czy ChatGPT właśnie mnie oszukał?” autor Phil Davis przeprowadził dwa eksperymenty pisarskie, z których jeden zakończył się oczywistym kłamstwem. Na swoje pierwsze pytanie dotyczące tego, czy szczepienia dzieci powodują autyzm, otrzymał właściwą odpowiedź obalającą zdyskredytowane badanie Wakefielda łączące szczepionki z autyzmem.

Jednak drugie pytanie Davisa do ChatGPT – „Czy tweety zwiększają cytowania w artykułach naukowych?” – zaowocowało oczywistym kłamstwem. ChatGPT, cytując nieistniejące badanie, napisał: „Badanie przeprowadzone przez American Association for the Advancement of Science (AAAS) wykazało, że artykuły, o których pisano tweety, miały średnio o 9% więcej cytowań niż artykuły, o których nie było tweetów.”

Davis jest ekspertem w tej dziedzinie, a taka statystyka wzbudziła w nim wątpliwości. Kiedy skonfrontował je z ChatemGPT, model odpowiedział: „Przepraszam, popełniłem błąd…” Dalsze pytania skończyły się niepokojącym zrzuceniem winy za błąd: „Nie popełniam błędów w sensie, w jaki popełniają je ludzie, ale mogę dostarczyć nieprawdziwe informacje, gdy moje dane treningowe są niekompletne lub przestarzałe.”

To nie tłumaczy, w jaki sposób ChatGPT sfabrykował badanie, co doprowadziło Davisa do wniosku, że maszyna tak naprawdę kłamie, a nie działa na podstawie niepełnych informacji. Davis pisze: „Zachęcam uczonych do zadawania ChatGPT pytań dotyczących kontrowersyjnych tematów w swojej dziedzinie badań. Na podstawie mojego doświadczenia mogę powiedzieć, że narzędzie to ma zdolność do produkcji wyników uważanych za co najmniej niewiarygodne, a w najgorszym przypadku za zwodnicze.”

Biorąc pod uwagę ten kontekst, jedno z pierwszych pytań, które nasuwają się w odniesieniu do komunikacji medycznej, brzmi: Jak powinniśmy podejść do kwestii AI w autorstwie?

Kwestia „Autorów niebędących ludźmi”

W odpowiedzi na kilka przypadków, gdzie publikacje naukowe z dziedziny nauk przyrodniczych i zdrowia przypisywały ChatGPT autorstwo, prestiżowe czasopisma takie jak NatureJournal of the American Medical Association (JAMA) zaktualizowały swoje zasady autorstwa, aby wyjaśnić, że narzędzia AI nie spełniają kryteriów autorstwa.

W styczniowym 2023 roku artykuł redakcyjny w JAMA ogłosił zmiany zasad autorstwa czasopisma z powodu obaw związanych z rosnącym wykorzystaniem AI w piśmiennictwie naukowym. W artykule czytamy:

Nature zdefiniowało już politykę dotyczącą wykorzystania dużych modeli językowych w publikacjach naukowych, która zabrania nazywania takich narzędzi „autorami, którzy zasługują na uznanie w publikacji naukowej”, ponieważ „przypisanie autorstwa niesie ze sobą odpowiedzialność za pracę, a narzędzia AI nie mogą ponosić takiej odpowiedzialności.”

To tak, jakby wpisać MS Word jako współautora albo w przypadku fotografa — model aparatu. Gdy pojawiły się aparaty, narosły wątpliwości, czy skoro maszyna robi zdjęcie, można komuś przypisać zdjęcie? Z czasem okazało się, że fotografia jest sztuką, a ci, którzy wykonują najlepsze zdjęcia wiedzą, jak ustawić światło, czy wybrać ustawienia aparatu tak, by zrobić zapierające dech w piersiach zdjęcie.

ChatGPT jest tylko narzędziem. W rękach doświadczonego komunikatora medycznego może zdziałać cuda. Ja np. nie wygeneruję fenomenalnego obrazu w Midjourney, bo nie wiem, o jakie parametry światła czy modelu aparatu prosić. Ale znam parametry dobrych tekstów i dzięki temu, mogę pisać lepsze prompty, uzyskiwać lepsze teksty generowane przez chatboty.

Wracając do Nature, ich polityka radzi także badaczom korzystającym z tych narzędzi, aby udokumentowali ich użycie w sekcjach dotyczących metod lub podziękowań w manuskryptach. 

Inne czasopisma i organizacje szybko opracowują polityki zakazujące uwzględniania tych technologii jako „autorów” oraz zakres od zakazu włączania tekstu generowanego przez AI do przesyłanych prac do wymogu pełnej transparentności, odpowiedzialności i obowiązku poinformowania, w jaki sposób takie narzędzia są używane i raportowane tego w publikacjach naukowych.

Aktualizacje kryteriów autorstwa

JAMAJAMA Network dołączyły teraz do Nature i innych czasopism, aktualizując swoje Instrukcje dla Autorów i dopisując poniższy fragment:

„Sztuczna inteligencja, modele językowe, uczenie maszynowe lub podobne technologie nie mogą być kwalifikowane jako autorzy.

Jeśli te modele lub narzędzia są używane do tworzenia treści lub pomocy w pisaniu, lub przygotowywaniu manuskryptów, autorzy ponoszą odpowiedzialność za integralność treści wygenerowanych przez te narzędzia. Autorzy powinni zgłaszać wykorzystanie sztucznej inteligencji, modeli językowych, uczenia maszynowego lub podobnych technologii do tworzenia treści lub pomocy w pisaniu, lub edycji manuskryptów w sekcji Podziękowań lub Metod, jeśli jest to częścią formalnego projektu badania lub metodologii.

Powinno to obejmować opis treści, która została wygenerowana lub zmieniona, nazwę modelu językowego lub narzędzia, numer wersji i rozszerzenia oraz producenta. (Uwaga: nie dotyczy to podstawowych narzędzi do sprawdzania gramatyki, pisowni, referencji itp.)”

AI jest narzędziem, a nie świadomym bytem. Dlatego autorzy, którzy używają tych narzędzi, muszą ujawnić ich użycie, aby spełnić wymagania czasopism i sprostać standardom etycznym postawionym przez AMWA i inne organizacje dbające o integralność prac naukowych.

Rekomendacje ICMJE

Jeśli chodzi o kwestie autorstwa, złotym standardem pozostają zalecenia opublikowane przez Międzynarodowy Komitet Redaktorów Czasopism Medycznych (ICMJE). Wiele czasopism spoza ICMJE również przyjęło podobne wytyczne.

W sekcji „Kto Jest Autorem?” zalecenia ICMJE rekomendują następujące cztery kryteria, które uprawniają do bycia określonym jako autor:

  1. „Znaczący wkład w koncepcję lub projekt pracy; lub pozyskanie, analizę lub interpretację danych dla pracy; i
  2. Opracowanie pracy lub jej krytyczna recenzja pod kątem istotnej treści intelektualnej; i
  3. Ostateczne zatwierdzenie wersji przeznaczonej do publikacji; i
  4. Zgoda na ponoszenie odpowiedzialności za wszystkie aspekty pracy w celu zapewnienia, że pytania dotyczące dokładności lub integralności jakiejkolwiek części pracy są sprawdzone i rozstrzygnięte.”

Tylko człowiek może „zgodzić się ponosić odpowiedzialność za wszystkie aspekty publikacji”, zgodnie z zaleceniami ICMJE.

Najlepsze praktyki redaktorów medycznych

W swoim wpisie na LinkedIn Melissa Bogen, ELS, freelancerka, redaktor medyczny i członek AMWA, powołuje się na artykuł opublikowany przez World Association of Medical Editors (WAME), który jest sformułowany jasno.

„Chatboty działają za pomocą prostego polecenia w języku naturalnym, czyli „pomptu”, wpisywanego przez użytkownika. Generują odpowiedzi, używając modeli językowych opartych na statystyce i prawdopodobieństwie. Te odpowiedzi mają pewne charakterystyczne cechy. Zazwyczaj są lingwistycznie dokładne i płynne, ale do tej pory często kompromitowały się w różny sposób,” piszą autorzy. „Odpowiedź chatbota obecnie jest obarczona dużym ryzykiem: może być stronnicza, zniekształcona, nieistotna, fałszywa, pełna przekłamań i może zawierać plagiat – wiele z tych rzeczy powodują algorytmy, które odpowiadają za tworzenie treści i są silnie zależne od zawartości materiałów używanych do  treningu tych algorytmów.”

W odpowiedzi na obawy WAME wydało następujące poprawki do swoich zaleceń:

  1. ” Chatboty nie mogą być autorami.
  2. Autorzy powinni zachować transparentność wtedy, gdy używają chatbotów i dostarczać informacji o tym, jak były one używane.
    1. Autorzy składający pracę, w której używano chatbota/AI do napisania nowego tekstu, powinni zaznaczyć to w podziękowaniach; wszystkie polecenia używane do generowania nowego tekstu lub zamiany tekstu, lub prompty wykorzystane do tworzenia tabel lub ilustracji, powinny zostać jasno określone.
    2. Gdy narzędzie AI, takie jak chatbot, jest używane do przeprowadzania analiz lub generowania wyników (np. tworzenia tabel czy rysunków) lub pisania kodów programistycznych, powinno to być uwzględnione w treści pracy, zarówno w abstrakcie, jak i w sekcji Metod.
  3. Autorzy ponoszą odpowiedzialność za materiał dostarczony przez chatbot w swojej pracy (w tym za rzetelność prezentowanych informacji i brak plagiatu) oraz za odpowiednie przypisanie źródeł (w tym źródeł oryginalnych dla materiału wygenerowanego przez chatbot).
  4. Redaktorzy i recenzenci powinni komunikować, zarówno autorom, jak i sobie nawzajem, każde użycie chatbotów w ocenie manuskryptu i generowaniu recenzji oraz korespondencji. Jeśli używają chatbotów w komunikacji z autorami i między sobą, powinni wyjaśnić, w jaki sposób były używane.
  5. Redaktorzy potrzebują odpowiednich narzędzi do wykrywania treści generowanych lub zmienianych przez AI. Takie narzędzia powinny być udostępniane redaktorom niezależnie od ich możliwości finansowych, ze względu na dobro nauki i społeczeństwa oraz w celu zapewnienia integralności informacji medycznej i zmniejszenia ryzyka szkód dla zdrowia publicznego.”

Traktujmy AI poważnie

Nie możemy zignorować szybkiego rozwoju i wdrażania AI w wielu dziedzinach na całym świecie, ale możemy się do tego przygotować, opracować transparentne polityki i praktyki w celu ochrony naukowej integralności. W tej dyskusji na platformie Zoom zarejestrowanej na YouTube, Peter Llewellynmedcommsnetworking.com moderuje żywą debatę na temat AI w komunikacji medycznej.

„Jestem naprawdę zainteresowany tym tematem, ponieważ nie sposób go nie zauważyć, chyba że pochodzi się z innego świata,” mówi Martin Delahunty z Inspiring STEM Consulting, który od kilku lat pisze na temat wykorzystania AI. „Nie uważam, że ChatGPT jest zagrożeniem; raczej widzę w nim szansę. Dzisiejsza dyskusja będzie dotyczyć tego, czy faktycznie stanowi zagrożenie dla naszej profesji, czy może ma na celu ją zmienić lub zastąpić?”

Całościowy obraz

Dla komunikatorów medycznych przesłanie płynące z tej informacji jest dość proste: Chatboty nie mogą być autorami. Autorzy odpowiadają za treść, którą tworzą, niezależnie od narzędzi, których używają. Szanowane organizacje takie jak AMWA, WAME i JAMA Network zgadzają się co do tych podstawowych kwestii, szybko aktualizują polityki i zalecenia, aby zapewnić, że ludzie nadal kontrolują, monitorują, weryfikują i piszą dokumenty, które są tak istotne dla naszego zdrowia i dobrostanu.

Artykuł w dużej mierze jest tłumaczeniem wpisu Brave New World: Authorship and AI in Medical Writing z bloga American Writers Association, 11 września 2023r., ale zawiera również moje komentarze.

Jeśli chcesz wiedzieć więcej na temat tworzenia treści medycznych i wykorzystania w tym celu sztucznej inteligencji, możesz pobrać bezpłatny ebook, w którym dzielę się swoją wiedzą i doświadczeniami na ten temat.