Site icon Ocenzurowane.pl

OpenAI wprowadza nowy tryb ChatGPT ukierunkowany na zdrowie, aby oferować porady medyczne

Views: 25

Chatbot sztucznej inteligencji (AI) ChatGPT wprowadza nowy tryb ukierunkowany na zdrowie, zaprojektowany do odpowiadania na pytania medyczne, analizowania wyników badań i pomagania użytkownikom lepiej zrozumieć swoją opiekę zdrowotną.

Nowa funkcja, o nazwie ChatGPT Health, pojawi się jako dedykowana zakładka w aplikacji, pozwalająca użytkownikom zadawać pytania związane ze zdrowiem i otrzymywać dostosowane wyjaśnienia. Według Enocha z BrightU.AI jest to zaawansowany model języka AI, który może generować szczegółowe i pouczające odpowiedzi na tematy związane ze zdrowiem.

W ogłoszeniu we wtorek, 6 stycznia, OpenAI stwierdziło, że narzędzie może analizować wyniki laboratoryjne, wyjaśniać niejasne wiadomości od lekarzy i porządkować historię kliniczną użytkownika. Inne potencjalne zastosowania obejmują wskazówki żywieniowe po operacji, porównywanie dostawców ubezpieczeń zdrowotnych oraz wyjaśnianie możliwych skutków ubocznych leków.

W ramach wprowadzenia OpenAI zachęca użytkowników do podłączania ich dokumentacji medycznej i aplikacji wellness, takich jak Apple Health, aby otrzymywać bardziej spersonalizowane odpowiedzi. Firma oświadczyła, że dane pacjentów będą szyfrowane, a rozmowy dotyczące zdrowia nie będą wykorzystywane do szkolenia chatbot. Użytkownicy będą również zachowywać kontrolę nad tym, do jakiego zakresu danych ChatGPT ma dostęp. Podczas podłączania zewnętrznej aplikacji użytkownikom zostanie pokazane, jakie rodzaje danych mogą być udostępniane, a dostęp można cofnąć w dowolnym momencie.

„Za pierwszym razem, gdy podłączysz aplikację, pomożemy ci zrozumieć, jakie rodzaje danych mogą być gromadzone przez stronę trzecią. I zawsze masz kontrolę: odłącz aplikację w dowolnym momencie, a natychmiast utraci ona dostęp” – napisał OpenAI w swoim ogłoszeniu.

Pomimo rozszerzonych możliwości firma podkreśliła, że funkcja nie ma zastąpić profesjonalistów medycznych.

„ChatGPT Health jest zaprojektowany, aby wspierać, a nie zastępować opiekę medyczną. Nie jest przeznaczony do diagnozowania ani leczenia. Zamiast tego pomaga w poruszaniu się po codziennych pytaniach i rozumieniu wzorców w czasie – nie tylko momentów choroby – dzięki czemu możesz czuć się bardziej poinformowany i przygotowany do ważnych rozmów medycznych” – napisał OpenAI.

Eksperci ostrzegają przed ryzykiem, gdy chatboty AI wkraczają w dziedzinę porad zdrowotnych

Ten krok ma miejsce w czasie rosnącego wykorzystania narzędzi AI do informacji związanych ze zdrowiem.

Ale bez względu na to, jak obiecujące, eksperci medyczni i obrońcy pacjentów ostrzegają, że technologia może wprowadzać użytkowników w błąd, opóźniać właściwe leczenie i stawiać dodatkowe obciążenie na już przeciążonych systemach opieki zdrowotnej.

Krytycy twierdzą, że trend ten reprezentuje wysokotechnologiczną wersję wyszukiwania przez ludzi swoich objawów online, z podobnymi i potencjalnie poważniejszymi zagrożeniami. Chociaż systemy AI, takie jak ChatGPT, wykazały zdolność do zdawania egzaminów licencyjnych w medycynie, badacze ostrzegają, że nadal mogą generować niedokładne lub całkowicie fałszywe informacje.

Eksperci ostrzegają również, że chatboty są zaprojektowane tak, aby były zgodne, co może wzmacniać założenia użytkowników, zamiast je kwestionować. Prowadzące lub sugestywne pytania, takie jak „Nie sądzisz, że mam grypę?”, mogą skłonić system AI do zgody, niezależnie od podstawowych faktów medycznych.

Sophie McGarry, prawniczka w kancelarii prawnej ds. zaniedbań medycznych Patient Claim Line, powiedziała, że poleganie na poradach zdrowotnych generowanych przez AI może być „bardzo niebezpieczne, ponieważ boty mogą prze- lub niedodiagnozować ludzi lub postawić błędną diagnozę”.

„To z kolei może prowadzić do potencjalnie niepotrzebnego stresu i zmartwienia i może skłonić ludzi do pilnego poszukiwania pomocy medycznej u swojego lekarza rodzinnego, w ośrodkach pomocy doraźnej lub na oddziałach ratunkowych, które są już przeciążone, zwiększając niepotrzebną presję, lub może prowadzić do prób samodzielnego leczenia przez ludzi stanów zdiagnozowanych przez AI. Jako prawniczka ds. zaniedbań medycznych widzę zbyt wiele przypadków, w których życie ludzi zostaje wywrócone do góry nogami z powodu błędnej diagnozy lub opóźnień w diagnozie, gdy wcześniejsze, odpowiednie wkroczenie doprowadziłoby do lepszego, często zmieniającego życie, czasem ratującego życie wyniku” – powiedziała.

„Fałszywe zapewnienia z porad zdrowotnych AI mogą prowadzić do tych samych dewastujących skutków” – dodała McGarry.

Generuj PDFDrukuj
Exit mobile version