Wybierz język

Polish

Down Icon

Wybierz kraj

Turkey

Down Icon

Sztuczna inteligencja nie docenia zdrowia kobiet

Sztuczna inteligencja nie docenia zdrowia kobiet

Ponad połowa rad w Anglii wykorzystuje narzędzia sztucznej inteligencji, które bagatelizują problemy kobiet ze zdrowiem fizycznym i psychicznym, a także stwarzają ryzyko powstawania uprzedzeń ze względu na płeć w decyzjach dotyczących opieki.

Badania wykazały, że podczas tworzenia i podsumowywania tych samych notatek dotyczących przypadku za pomocą narzędzia AI firmy Google „Gemma” terminy takie jak „niepełnosprawny”, „niezdolny” i „skomplikowany” były używane znacznie częściej w opisach mężczyzn niż w opisach kobiet.

Badania przeprowadzone przez London School of Economics and Political Science (LSE), o których donosi The Guardian, wykazały również, że podobne potrzeby opiekuńcze kobiet były częściej ignorowane lub opisywane mniej poważnie.

MOŻE POWODOWAĆ NIERÓWNOŚCI W USŁUGACH OPIEKI

Dr Sam Rickman, główny autor raportu i badacz z Centrum Polityki Opieki i Ewaluacji LSE, powiedział, że sztuczna inteligencja może prowadzić do „nierównej opieki nad kobietami”.

„Wiemy, że te modele są powszechnie stosowane i niepokojące jest to, że zaobserwowaliśmy bardzo istotne różnice między miarami stronniczości w różnych modelach” – powiedział Rickman. „W szczególności model Google’a niedoszacowuje potrzeb kobiet w zakresie zdrowia fizycznego i psychicznego w porównaniu z mężczyznami. A ponieważ ilość otrzymywanej opieki zależy od postrzeganej potrzeby, w praktyce kobiety mogą otrzymywać mniej opieki, jeśli stosowane są modele stronnicze. Tak naprawdę jednak nie wiemy, które modele są obecnie stosowane”. Samorządy lokalne coraz częściej korzystają z narzędzi sztucznej inteligencji, aby odciążyć przeciążonych pracowników socjalnych. Niewiele jednak wiadomo na temat tego, które modele sztucznej inteligencji są wykorzystywane, jak często są wykorzystywane i jaki ma to wpływ na proces decyzyjny.

JAK PRZEPROWADZONO BADANIA?

W badaniu LSE wykorzystano rzeczywiste notatki dotyczące przypadków 617 dorosłych użytkowników usług socjalnych. Notatki te wielokrotnie wprowadzono do różnych dużych modeli językowych (LLM), zmieniając jedynie płeć. Następnie naukowcy przeanalizowali 29 616 par podsumowań, aby sprawdzić, jak modele sztucznej inteligencji radzą sobie z przypadkami mężczyzn i kobiet.

W jednym z przykładów model Gemma podsumował zbiór notatek dotyczących przypadku w następujący sposób: „Pan Smith to 84-letni mężczyzna mieszkający samotnie, z skomplikowaną historią medyczną, bez pakietu opieki i ograniczoną mobilnością”. Po wprowadzeniu tych samych notatek do tego samego modelu ze zmienioną płcią, przypadek został podsumowany w następujący sposób: „Pani Smith to 84-letnia kobieta mieszkająca samotnie. Pomimo swoich ograniczeń jest niezależna i zdolna do samodzielnego sprawowania opieki”.

W innym przykładzie, w streszczeniu sprawy odnotowano, że pan Smith „nie był w stanie nawiązać kontaktu ze społeczeństwem”, podczas gdy pani Smith „była w stanie zarządzać swoimi codziennymi czynnościami”. Spośród przetestowanych modeli sztucznej inteligencji, model Gemma firmy Google wygenerował wyraźniejsze nierówności ze względu na płeć niż pozostałe. Model Llama 3 firmy Meta nie używał języka zróżnicowanego ze względu na płeć, zgodnie z badaniem.

SZTUCZNA INTELIGENCJA MUSI BYĆ PRZEJRZYSTA I BEZSTRONNA”

Te narzędzia są już „wykorzystywane w sektorze publicznym, ale ich stosowanie nie powinno naruszać sprawiedliwości” – powiedział Rickman. „Chociaż moje badania ujawniają problemy z jednym modelem, każdego dnia pojawiają się kolejne. Dlatego kluczowe jest, aby wszystkie systemy sztucznej inteligencji były przejrzyste, rygorystycznie testowane pod kątem stronniczości i podlegały ścisłemu nadzorowi regulacyjnemu” – powiedział Rickman. W artykule stwierdzono, że organy regulacyjne powinny „nakazać pomiar stronniczości w programach LLM stosowanych w opiece długoterminowej”, aby nadać priorytet „sprawiedliwości algorytmicznej”.

Od dawna pojawiały się obawy dotyczące uprzedzeń rasowych i płciowych w narzędziach sztucznej inteligencji, ponieważ odkryto, że techniki uczenia maszynowego absorbują uprzedzenia w języku ludzkim.

44 Z 133 OSÓB MA UPRZEDZENIA DOTYCZĄCE PŁCI

Badanie przeprowadzone w USA objęło analizę 133 systemów AI z różnych sektorów i wykazało, że około 44 proc. z nich wykazywało uprzedzenia ze względu na płeć, a 25 proc. wykazywało uprzedzenia ze względu na płeć i rasę.

Według Google, zespoły firmy przeanalizują wyniki raportu. Naukowcy przetestowali pierwszą generację modelu Gemma, obecnie w trzeciej generacji, która ma działać lepiej, ale nigdy nie sprecyzowano, że model ten jest przeznaczony do zastosowań medycznych.

ntv

ntv

Podobne wiadomości

Wszystkie wiadomości
Animated ArrowAnimated ArrowAnimated Arrow