Chat GPT rozwija skrzydła w medycynie. Od kiedy będziemy mogli skorzystać z usług lekarza Al?
Sztuczna inteligencja to statystyczna maszyna. „Już teraz może być przydatna w medycynie, ale trzeba uważać, bo zagrożeń jest sporo” – przekonuje Jan Zygmuntowski, pracownik naukowy Akademii Leona Koźmińskiego w Warszawie. Pisze on pracę doktorską na temat umiejętnego łączenia zbiorów do trenowania AI, tak by uniknąć nadużyć.
Problem ze sztuczną inteligencją polega na tym, że nie ma ona własnego zdania. W najlepszym wypadku można ją wytrenować: na przykład algorytm rozpoznający obrazy można nauczyć, jak odróżniać koty od psów. Ale to podejście ma swoje ograniczenia: maszyna nigdy nie zrozumie, czym są te zwierzęta i dlaczego są ważne dla ludzi.
Czym jest Chat GPT?
Chat GPT to model językowy stworzony przez OpenAI. Jest to algorytm sztucznej inteligencji, który został wytrenowany na ogromnych ilościach danych tekstowych. Dzięki temu jest w stanie rozumieć i generować ludzkie wzorce językowe.
Może być używany w wielu aplikacjach, takich jak rozpoznawanie mowy, tłumaczenie maszynowe, generowanie tekstu, rekomendacje treści i wirtualni asystenci. W przypadku rozmów, ChatGPT jest w stanie generować odpowiedzi na pytania lub wypowiadać się na różne tematy, wykorzystując swoje zrozumienie języka naturalnego.
Jako model językowy, ChatGPT nie posiada własnej osobowości ani wiedzy. Jego jedynym celem jest generowanie odpowiedzi na podstawie analizy tekstu wejściowego.
Eksperyment z Al
Naukowcy z Northwestern University stworzyli 50 abstraktów stylizowanych na profesjonalne publikacje z czasopism medycznych przy użyciu algorytmu GPT. Zaprosili czterech recenzentów, których zadaniem było wybranie tekstów napisanych przez człowieka i odrzucenie tych wyprodukowanych przez bota. Badacze podzielili uczestników na dwie grupy po dwie osoby. Każda z nich otrzymała po 25 tekstów. Abstrakty zostały im losowo przydzielone w taki sposób, aby na przemian sprawdzali wersje fałszywe i prawdziwe.
Recenzentom udało się wykryć tylko 68% fałszywych tekstów wygenerowanych przez AI, podczas gdy skuteczność rozpoznawania prawdziwych abstraktów wyniosła 86%. Oznacza to, że rozpoznali 32% tekstów napisanych w GPT jako dzieło człowieka, a 14% prawdziwych abstraktów jako tekst stworzony przez sztuczną inteligencję. Warto zaznaczyć, że wybór osób uczestniczących w badaniu, nie był przypadkowy. Byli to specjaliści w swoich dziedzinach, którzy zajmują się recenzowaniem publikacji w czasopismach naukowych.
Uczestnicy zeznali, że bardzo trudno było odróżnić abstrakty, głównie ze względu na ich specjalistyczne słownictwo, precyzyjne dane i dokładne liczby, czego kompletnie nie spodziewali się po sztucznej inteligencji.
Obawy i nadzieje związane z AI
W trakcie badania specjaliści mieli duże problemy z odróżnieniem tekstów stworzonych przez AI od tych, które pochodzą od człowieka. Co ma powiedzieć zwykły zjadacz chleba, nieobeznany z branżową nomenklaturą. Naukowcy obawiają się, że brak regulacji generatorów tekstów może przyczynić się do masowej dystrybucji fake newsów i sfabrykowanych dokumentów medycznych.
Widzą jednak pewne plusy w wykorzystaniu sztucznej inteligencji. Uważają, że AI mogłaby – nieco na przekór sobie – zająć się weryfikacją publikacji naukowych pisanych przez boty lub po prostu wykrywaniem plagiatów, z którymi borykają się uczelnie. Pojawiają się też głosy opowiadające się za stanowiskiem, że AI mogłaby pisać abstrakty – które nie mają faktycznej wartości naukowej – artykułów napisanych przez ludzi. Ułatwiłoby to pracę naukowcom, ale ta opcja nie jest jeszcze w pełni akceptowana przez środowiska akademickie.
Tak więc na obecną chwilę raczej nie spotkamy się z lekarzem Al. Na ten moment istnieje jeszcze zbyt wiele niedociągnięć i obaw wiążących się z ideą wykorzystania sztucznej inteligencji w diagnostyce medycznej. Nie wyklucza to jednak możliwości wprowadzenia jej w obieg w niedalekiej przyszłości!
________________________
Autor: Julia Kownacka
Autor zdjęcia głównego: rawpixel.com
Materiał źródłowy: itwiz.pl, monitorlocalnews.com, antyweb.pl