NOWOŚĆ!Już dziś zapisz się, aby otrzymywać nasz newsletter! Zapisz się 

LEKARZPACJENT

Wytyczne WHO dotyczące etyki i zarządzania sztuczną inteligencją

Światowa Organizacja Zdrowia (WHO) opublikowała nowe wytyczne dotyczące etyki i zarządzania dużymi modelami multimodalnymi (LMM) – rodzajem szybko rozwijającej się technologii generatywnej sztucznej inteligencji (AI), wykorzystującej algorytmy i modele uczenia maszynowego, mającej zastosowanie w opiece zdrowotnej.

Wytyczne „Etyka i zarządzanie sztuczną inteligencją w służbie zdrowia: wytyczne dotyczące dużych modeli multimodalnych” zawierają ponad 40 zaleceń do rozważenia przez rządy, firmy technologiczne i dostawców opieki zdrowotnej w celu zapewnienia właściwego wykorzystania LMM do promowania i ochrony zdrowia.

LMM mogą akceptować jeden lub więcej typów danych wejściowych (takich jak tekst, filmy i obrazy) i generować różne dane wyjściowe, które nie ograniczają się do typu danych wprowadzanych. LMM są wyjątkowe ze względu na ich odwzorowanie komunikacji międzyludzkiej i zdolność do wykonywania zadań, do których nie zostały wyraźnie zaprogramowane. LMM zostały przyjęte szybciej niż jakakolwiek aplikacja konsumencka w historii, a kilka platform – takich jak ChatGPT, Bard i – weszło do świadomości publicznej w 2023 roku.

Technologie generatywnej sztucznej inteligencji mają potencjał, aby opiekę zdrowotną czynić lepszą, ale tylko wtedy, gdy ci, którzy opracowują, regulują i wykorzystują te technologie, zidentyfikują i w pełni uwzględnią związane z nimi ryzyko – podkreślił dr Jeremy Farrar z WHO. – Potrzebujemy przejrzystych informacji i zasad, aby zarządzać projektowaniem, rozwojem i stosowaniem LMM, która ma służyć osiągnięciu lepszych wyników medycznych i pomóc przezwyciężyć utrzymujące się nierówności zdrowotne – podkreślił.

Potencjalne korzyści i zagrożenia

Nowe wytyczne WHO nakreślają pięć szerokich zastosowań LMM dla zdrowia:
1) diagnoza i opieka kliniczna, np. odpowiadanie na pisemne zapytania pacjentów;
2) zastosowanie do użytku pacjenta, np. w celu zbadania objawów i leczenia;
3) wykorzystanie biurowe i administracyjne, takie jak dokumentowanie i podsumowywanie wizyt pacjentów w ramach elektronicznej dokumentacji medycznej;
4) edukacja medyczna, w tym zapewnienie stażystom symulowanych spotkań z pacjentami;
5) badania naukowe i opracowywanie leków, m.in. w celu identyfikacji nowych związków.

Chociaż LMM zaczynają być wykorzystywane do określonych celów związanych ze zdrowiem, istnieje również udokumentowane ryzyko tworzenia fałszywych, niedokładnych, stronniczych lub niekompletnych twierdzeń, które mogą zaszkodzić osobom korzystającym z takich informacji przy podejmowaniu decyzji.

WHO podkreśla potrzebę zaangażowania różnych zainteresowanych stron: rządów, firm technologicznych, świadczeniodawców opieki zdrowotnej, pacjentów i społeczeństwa obywatelskiego na wszystkich etapach rozwoju i wdrażania takich technologii, w tym ich nadzoru i regulacji, aby stworzyć bezpieczne i skuteczne LMM.

Kluczowe zalecenia

Nowe wytyczne WHO zawierają zalecenia dla rządów, które ponoszą główną odpowiedzialność za ustalanie standardów opracowywania i wdrażania LMM oraz ich integrację i wykorzystanie do celów zdrowia publicznego oraz medycyny. Wg WHO rządy powinny m.in.:
● inwestować w infrastrukturę non-profit lub publiczną, w tym moc obliczeniową i publiczne zbiory danych, dostępną dla deweloperów w sektorze publicznym, prywatnym i non-profit, lub zapewnianie takiej infrastruktury, która wymaga od użytkowników przestrzegania zasad i wartości etycznych w zamian za dostęp;
● stosować przepisy ustawowe i regulacje w celu zagwarantowania, by LMM i aplikacje stosowane w opiece zdrowotnej i medycynie, niezależnie od ryzyka lub korzyści związanych z technologią sztucznej inteligencji, spełniały zobowiązania etyczne i standardy praw człowieka, które mają wpływ na godność, autonomię lub prywatność danej osoby;
● wyznaczyć istniejącą lub nową instytucję regulacyjną do oceny i zatwierdzania LMM oraz aplikacji przeznaczonych do użytku w opiece zdrowotnej lub medycynie – w zależności od zasobów;
● wprowadzić obowiązkowe audyty, w tym w zakresie ochrony danych i praw człowieka, przeprowadzane przez niezależne strony trzecie, gdy LMM jest wdrażany na dużą skalę (audyty powinny być publikowane).

Wytyczne WHO zawierają również kluczowe zalecenia dla deweloperów LMM.

Więcej danych w dokumencie „Etyka i zarządzanie sztuczną inteligencją w służbie zdrowia: wytyczne dotyczące dużych modeli multimodalnych”.

Sztuczna inteligencja była tematem VI debaty plenarnej 5. Kongresu Zdrowie Polaków: „Medycyna i sztuczna inteligencja – wzajemny wpływ na rozwój” (04:14:00 Dzień II kanał 1 – 5. Kongres Zdrowie Polaków 2023).

Źródło: who.int
Foto: pixabay.com

Powiązane artykuły
LEKARZAktualnościCo? Gdzie? Kiedy?PACJENT

Prof. Henryk Skarżyński odznaczony Orderem Orła Białego

Z okazji Narodowego Święta Niepodległości Prezydent Rzeczypospolitej Polskiej Andrzej Duda, podczas uroczystości zorganizowanej w Belwederze wręczył odznaczenia państwowe osobom zasłużonym w służbie…
PACJENTPoradnia

Nowa era w diagnostyce i leczeniu raka płuca

– W listopadzie, który jest Światowym Miesiącem Świadomości Raka Płuca, przypominamy o kluczowej roli profilaktyki i wczesnej diagnozy. Rak płuca nazywany jest…
PACJENTPoradnia

Hipofosfatazja, czyli choroba kruchych kości

To rzadkie schorzenie metaboliczne o podłożu genetycznym, które sprawia, że kości oraz zęby stają się słabe, kruche i podatne na złamania. U…
Zapisz się, aby otrzymywać nasz newsletter

    Dodaj komentarz

    Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *