Connect with us

Sztuczna inteligencja: uprzedzenia i stereotypy kulturowe – skutki, ograniczenia i sposoby przeciwdziałania

Sztuczna inteligencja

Sztuczna inteligencja: uprzedzenia i stereotypy kulturowe – skutki, ograniczenia i sposoby przeciwdziałania

mm
AI Bias & Cultural Stereotypes: Effects, Limitations, & Mitigation

Sztuczna inteligencja (AI), zwłaszcza Generatywna AI, wciąż przekracza oczekiwania swoją zdolnością do rozumienia i naśladowania ludzkiej kognicji i inteligencji. Jednak w wielu przypadkach wyniki lub prognozy systemów AI mogą odzwierciedlać różne rodzaje uprzedzeń w AI, takie jak kulturowe i rasowe. Blog Buzzfeed „Barbie świata” (który został usunięty) wyraźnie ujawnia te uprzedzenia kulturowe i nieścisłości. Te „lalki barbie” zostały stworzone przy użyciu Midjourney – wiodącego generatora obrazów AI, aby sprawdzić, jak barbie wyglądałyby w każdej części świata. Opowiemy o tym więcej później. Ale to nie pierwszy raz, gdy AI była „rasistowska” lub dawała nieprawidłowe wyniki. Na przykład w 2022 roku Apple zostało pozwane z powodu zarzutów, że czujnik tlenu we krwi w Apple Watch był stronniczy wobec osób o ciemniejszej karnacji. W innym zgłoszonym przypadku użytkownicy Twittera odkryli, że automatyczny algorytm AI Twittera do kadrowania zdjęć faworyzował twarze białych osób ponad czarnych oraz kobiety ponad mężczyzn. Są to poważne wyzwania, a ich rozwiązanie jest niezwykle trudne. W tym artykule przyjrzymy się, czym jest uprzedzenie w AI, jak wpływa na nasze społeczeństwo i krótko omówimy, jak praktycy mogą je łagodzić, aby stawić czoła wyzwaniom, takim jak stereotypy kulturowe.

Czym jest uprzedzenie w AI?

Uprzedzenie w AI występuje, gdy modele AI dają dyskryminujące wyniki wobec określonych grup demograficznych. Kilka rodzajów uprzedzeń może dostać się do systemów AI i powodować nieprawidłowe wyniki. Niektóre z tych uprzedzeń w AI to:

  • Uprzedzenie stereotypowe: Uprzedzenie stereotypowe odnosi się do zjawiska, w którym wyniki modelu AI zawierają stereotypy lub utrwalone wyobrażenia na temat danej grupy demograficznej.
  • Uprzedzenie rasowe: Uprzedzenie rasowe w AI ma miejsce, gdy wynik modelu AI jest dyskryminujący i niesprawiedliwy wobec osoby lub grupy ze względu na ich pochodzenie etniczne lub rasę.
  • Uprzedzenie kulturowe: Uprzedzenie kulturowe pojawia się, gdy wyniki modelu AI faworyzują jedną kulturę ponad inną.

Poza uprzedzeniami, inne problemy również mogą zakłócać wyniki systemu AI, takie jak:

  • Nieścisłości: Nieścisłości występują, gdy wyniki generowane przez model AI są nieprawidłowe z powodu niespójnych danych treningowych.
  • Halucynacje: Halucynacje występują, gdy modele AI generują fikcyjne i fałszywe wyniki, które nie są oparte na danych faktycznych.

Wpływ uprzedzeń w AI na społeczeństwo

Wpływ uprzedzeń w AI na społeczeństwo może być szkodliwy. Stronnicze systemy AI mogą generować nieprawidłowe wyniki, które wzmacniają uprzedzenia już istniejące w społeczeństwie. Te wyniki mogą zwiększać dyskryminację i naruszenia praw, wpływać na procesy rekrutacyjne i zmniejszać zaufanie do technologii AI. Ponadto, stronnicze wyniki AI często prowadzą do nieprawidłowych prognoz, które mogą mieć poważne konsekwencje dla niewinnych osób. Na przykład, w sierpniu 2020 roku, Robert McDaniel stał się celem przestępstwa, ponieważ algorytm predykcyjny policji w Chicago oznaczył go jako „osobę zainteresowaną”. Podobnie, stronnicze systemy AI w opiece zdrowotnej mogą mieć poważne konsekwencje dla pacjentów. W 2019 roku, Science odkryło, że powszechnie stosowany algorytm medyczny w USA był stronniczy rasowo wobec osób o ciemniejszej karnacji, co doprowadziło do tego, że czarni pacjenci otrzymywali mniej zaawansowane zarządzanie opieką wysokiego ryzyka.

Barbie świata

W lipcu 2023 roku, Buzzfeed opublikował blog zawierający 194 wygenerowane przez AI lalki barbie z całego świata. Post stał się viralem na Twitterze. Chociaż Buzzfeed zamieścił oświadczenie z zastrzeżeniem, nie powstrzymało to internautów przed wskazywaniem na rasowe i kulturowe nieścisłości. Na przykład, wygenerowany przez AI obraz niemieckiej Barbie nosił mundur generała SS nazistów. Barbies of the World-image5 Podobnie, wygenerowany przez AI obraz barbie z Sudanu Południowego został pokazany z pistoletem przy boku, odzwierciedlając głęboko zakorzenione uprzedzenia w algorytmach AI. Barbies of the World-image4 Poza tym, kilka innych obrazów wykazywało kulturowe nieścisłości, na przykład barbie z Kataru nosząca Ghutrę, tradycyjne nakrycie głowy noszone przez arabskich mężczyzn. Barbies of the World-image3 Ten wpis na blogu spotkał się z ogromnym sprzeciwem z powodu kulturowych stereotypów i uprzedzeń. London Interdisciplinary School (LIS) nazwało to szkodą reprezentacyjną, którą należy kontrolować poprzez wprowadzanie standardów jakości i ustanawianie organów nadzoru nad AI.

Ograniczenia modeli AI

AI ma potencjał, aby zrewolucjonizować wiele branż. Ale jeśli scenariusze takie jak te wymienione powyżej będą się mnożyć, może to prowadzić do spadku ogólnej adopcji AI, skutkując utratą szans. Takie przypadki zwykle występują z powodu istotnych ograniczeń systemów AI, takich jak:

  • Brak kreatywności: Ponieważ AI może podejmować decyzje tylko na podstawie dostarczonych danych treningowych, brakuje jej kreatywności, aby myśleć nieszablonowo, co utrudnia kreatywne rozwiązywanie problemów.
  • Brak zrozumienia kontekstu: Systemy AI mają trudności ze zrozumieniem niuansów kontekstowych lub wyrażeń językowych regionu, co często prowadzi do błędów w wynikach.
  • Uprzedzenie treningowe: AI opiera się na danych historycznych, które mogą zawierać wszelkiego rodzaju dyskryminujące próbki. Podczas treningu model może łatwo nauczyć się dyskryminujących wzorców, aby generować niesprawiedliwe i stronnicze wyniki.

Jak zmniejszyć uprzedzenia w modelach AI

Eksperci szacują, że do 2026 roku 90% treści online może być generowanych syntetycznie. Dlatego tak ważne jest szybkie minimalizowanie problemów obecnych w technologiach Generatywnej AI. Można wdrożyć kilka kluczowych strategii, aby zmniejszyć uprzedzenia w modelach AI. Niektóre z nich to:

  • Zapewnienie jakości danych: Zasilanie modelu AI kompletnymi, dokładnymi i czystymi danymi może pomóc zmniejszyć uprzedzenia i generować dokładniejsze wyniki.
  • Różnorodne zbiory danych: Wprowadzanie różnorodnych zbiorów danych do systemu AI może pomóc złagodzić uprzedzenia, ponieważ system AI z czasem staje się bardziej inkluzywny.
  • Zwiększone regulacje: Globalne regulacje AI są kluczowe dla utrzymania jakości systemów AI ponad granicami. Dlatego organizacje międzynarodowe muszą współpracować, aby zapewnić standaryzację AI.
  • Zwiększona adopcja Odpowiedzialnej AI: Strategie Odpowiedzialnej AI przyczyniają się pozytywnie do łagodzenia uprzedzeń w AI, kultywowania uczciwości i dokładności w systemach AI oraz zapewnienia, że służą one zróżnicowanej bazie użytkowników, dążąc jednocześnie do ciągłej poprawy.

Włączając różnorodne zbiory danych, etyczną odpowiedzialność i otwarte kanały komunikacji, możemy zapewnić, że AI będzie źródłem pozytywnych zmian na całym świecie. Jeśli chcesz dowiedzieć się więcej o uprzedzeniach i roli sztucznej inteligencji w naszym społeczeństwie, przeczytaj poniższe blogi.

Haziqa is a Data Scientist with extensive experience in writing technical content for AI and SaaS companies.