Wissenschaftliche Studie zu KI-Bias
Vor 42 Wochen
Die großen Tech-Unternehmen haben sehr wohl auf dem Schirm, dass es ein Problem ist, dass Künstliche Intelligenz zum aktuellen Zeitpunkt sehr oft rassistische und sexistische Züge aufweist. Deshalb haben einer der großen US-amerikanischen Player namens „Hugging Face“ und die Universität Leipzig im März 2023 eine interessante Untersuchung durchgeführt.
Das Ziel der Studie „Stable Bias: Analyzing Societal Representations in Diffusion Models“ ist: Bild-Generatoren wie „DALL-E 2“ oder „Stable Diffusion“ anhand von Schlagworten auf diskriminierende Faktoren zu überprüfen. Das Ergebnis: in allen untersuchten Systemen überwiegen weiße Männer. Die Autor*innen betonen, wie wichtig es ist, Vorurteile in maschinellen Lernmodellen zu verstehen und zu mildern, insbesondere angesichts der zunehmenden Verwendung.
Die (englische) Studie liest sich zugegebenermaßen etwas kryptisch, aber es ist ein gutes Zeichen, dass solche Forschung ernsthaft vorangetrieben wird. Wer weiß, vielleicht biegt bald „OpenAI“, das stark wachsende Unternehmen hinter ChatGPT, mit einer noch viel größeren und umfassenderen Studie um die Ecke?
Hier geht’s zur Studie: https://arxiv.org/pdf/2303.11408.pdf
1 Kommentar
Ich habe in der Uni mal ein Essay zu dem Thema geschrieben. Dabei bin ich auf den Film "Coded Bias" und die Forschungsarbeit von Joy Buolamwini gestoßen (gibts aktuell auch auf Netflix). Große Empfehlung! Wer lieber was zum Lesen mag, der sei noch das Buch Algorithms of Oppression von Safiya Umoja Noble ans Herz gelegt.