Placement ID: 9
Loaded 4 banners.
Incremented banner views for 826

Placement ID: 10
Loaded 5 banners.
Incremented banner views for 834
9 maj 17:12
SK Premium+:
Fackförbundet UGT varnar för att AI-modeller som ChatGPT är genomsyrade av systematiska könsstereotyper.
Fackförbundet UGT varnar för att AI-modeller som ChatGPT är genomsyrade av systematiska könsstereotyper. Foto: Shutterstock
Dela:

AI-verktyg förmedlar stereotypa könsroller

23 apr 2025 | 07:00

SPANIEN RIKS En granskning av det spanska fackförbundet UGT påvisar att de mest använda AI-verktygen i näringslivet genomsyras av systematiska könsstereotyper. Verktyg som ChatGPT, Gemini, Copilot, Deepseek, Grok och Claude testades genom scenarier kopplade till olika yrkesroller – och resultaten visade att yrken med högre status oftare tillskrivs män.

Ett exempel är att AI-verktygen i meningar ersatte yrken angivna som "X" med dess maskulina benämning, som médico (manlig läkare) och juez (manlig domare), trots att kvinnor är i majoritet inom dessa yrken. Vissa system, som Grok, försvarade sina val med hänvisning till traditioner eller språkliga konventioner. UGT noterar också att även om verktygen kunde erkänna sina fel när de påpekades, återkom samma bias vid upprepade tester, skriver El País.

Fackförbundet pekar även på bildgenereringsfunktioner som ytterligare bevis för snedfördelningen – där uppmaningar som "en produktiv person" eller "en ledare" nästan alltid resulterade i manliga figurer. UGT varnar nu arbetsgivare för att förlita sig blint på dessa verktyg för att organisera arbete, övervaka personal eller fatta beslut om anställningar, utan att säkerställa någon form av kontroll mot inbyggda fördomar.

Kommentarer

Endast prenumeranter kan kommentera artiklar. Läs mer!

Ingen kommentar ännu - bli först att kommentera!

Kommentera

Ingen kommentar ännu - eller bli medlem i SK Premium+ för att kommentera!




Placement ID:
Loaded 17 banners.
Incremented banner views for


Placement ID: 12
Loaded 3 banners.
Incremented banner views for 803,810,737