Weiße Stereotype bei intelligenten Maschinen: zu viel "Whiteness" in der KI
#Bias #KünstlicheIntelligenz #Rassismus #Vorurteile
Intelligente Maschinen – reale und auch fiktionale – spiegeln fast ausschließlich weiße Stereotype wider, haben Forscher herausgefunden․
#Bias #KünstlicheIntelligenz #Rassismus #Vorurteile
Intelligente Maschinen – reale und auch fiktionale – spiegeln fast ausschließlich weiße Stereotype wider, haben Forscher herausgefunden․
August 8, 2020
Analyse: KI-Sprachmodell GPT-3 hegt tief verankerte Vorurteile gegen Muslime
#GPT3 #KünstlicheIntelligenz #Vorurteile
Die Text-KI GPT-3 wurde mit Unmengen an Texten aus dem Internet trainiert․ Mitgenommen hat sie daraus offenbar jede Menge Vorurteile gegen Muslime․
#GPT3 #KünstlicheIntelligenz #Vorurteile
Die Text-KI GPT-3 wurde mit Unmengen an Texten aus dem Internet trainiert․ Mitgenommen hat sie daraus offenbar jede Menge Vorurteile gegen Muslime․
January 25, 2021
Algorithmen zur Bildgenerierung: Männer tragen Anzüge, Frauen Bikinis
#KünstlicheIntelligenz #MachineLearning #Sexismus #Vorurteile
Algorithmen können inzwischen täuschend echt Fotos aus Bildteilen vervollständigen․ Die Ergebnisse sind offenbar so sexistisch wie das Trainingsmaterial․
#KünstlicheIntelligenz #MachineLearning #Sexismus #Vorurteile
Algorithmen können inzwischen täuschend echt Fotos aus Bildteilen vervollständigen․ Die Ergebnisse sind offenbar so sexistisch wie das Trainingsmaterial․
February 2, 2021
Wie eingebautes Misstrauen KI-Systeme sicherer machen kann
#Bias #Infotech #KünstlicheIntelligenz #MachineLearning #Misstrauen #Vertrauen #Vorurteile
Ayanna Howard, Robotikerin und Pädagogin, hält es für gefährlich, automatisierten Systemen zu vertrauen․ Im TR-Interview erläutert sie Lösungsmöglichkeiten․
#Bias #Infotech #KünstlicheIntelligenz #MachineLearning #Misstrauen #Vertrauen #Vorurteile
Ayanna Howard, Robotikerin und Pädagogin, hält es für gefährlich, automatisierten Systemen zu vertrauen․ Im TR-Interview erläutert sie Lösungsmöglichkeiten․
May 21, 2021
Twitter-Algorithmus bevorzugt auch junge Gesichter und lateinische Schrift
#Algorithmen #Benachteiligung #Twitter #Vorurteile
Mit Preisgeldern hat Twitter die Suche nach weiteren Vorurteilen eines bereits ausgemusterten Algorithmus unterstützt․ Die Teilnehmenden wurden fündig․
#Algorithmen #Benachteiligung #Twitter #Vorurteile
Mit Preisgeldern hat Twitter die Suche nach weiteren Vorurteilen eines bereits ausgemusterten Algorithmus unterstützt․ Die Teilnehmenden wurden fündig․
August 10, 2021
New York City: Gesetz soll KI-Einsatz für Bewerbungen regulieren
#Algorithmen #Bewerbungen #Geschlechter #Karriere #KünstlicheIntelligenz #NewYorkCity #Rassismus #Vorurteile
Anbieter von KI-Tools zur Besetzung offener Stellen müssen in New York City zukünftig Audits bestehen und transparenter werden, sonst ist der Einsatz verboten․
#Algorithmen #Bewerbungen #Geschlechter #Karriere #KünstlicheIntelligenz #NewYorkCity #Rassismus #Vorurteile
Anbieter von KI-Tools zur Besetzung offener Stellen müssen in New York City zukünftig Audits bestehen und transparenter werden, sonst ist der Einsatz verboten․
November 21, 2021
KI im Recruiting: Mist, aber trotzdem im Einsatz
#Bewerber #Bewerbung #Bias #Infotech #KünstlicheIntelligenz #Qualifikation #Recruiting #Vorurteile
Künstliche Intelligenz soll Zeit sparen und Probleme lösen – zum Beispiel auch im Recruiting․ Das funktioniert aber nur bedingt․
#Bewerber #Bewerbung #Bias #Infotech #KünstlicheIntelligenz #Qualifikation #Recruiting #Vorurteile
Künstliche Intelligenz soll Zeit sparen und Probleme lösen – zum Beispiel auch im Recruiting․ Das funktioniert aber nur bedingt․
April 12, 2022
Google: Neue Hautton-Skala soll Fotosuche, Filter und KI-Forschung verbessern
#Google #GoogleIO #KünstlicheIntelligenz #Vorurteile
In die Produkte von Google soll eine neue Skala für Hauttöne Einzug halten, die People of Color besser repräsentieren soll․ Google gibt die Skala außerdem frei․
#Google #GoogleIO #KünstlicheIntelligenz #Vorurteile
In die Produkte von Google soll eine neue Skala für Hauttöne Einzug halten, die People of Color besser repräsentieren soll․ Google gibt die Skala außerdem frei․
May 31, 2022
McKinsey-Studie: Niedriger Frauenanteil bei Tech-Jobs bremst Wirtschaft aus
#Diversität #Europa #Fachkräftemangel #Frauen #Förderung #Geschlechterrollen #ITFachkräfte #Kinderbetreuung #MINT #McKinsey #Männer #Technik #Vorurteile
Jungen sind in Mathematik oder Informatik nicht besser als ihre Mitschülerinnen․ Nach der Schule trennen sich allerdings ihre Wege․ Das schade der Wirtschaft․
#Diversität #Europa #Fachkräftemangel #Frauen #Förderung #Geschlechterrollen #ITFachkräfte #Kinderbetreuung #MINT #McKinsey #Männer #Technik #Vorurteile
Jungen sind in Mathematik oder Informatik nicht besser als ihre Mitschülerinnen․ Nach der Schule trennen sich allerdings ihre Wege․ Das schade der Wirtschaft․
January 24, 2023
Wie OpenAI ChatGPT entwickelt hat: Ein exklusives Gespräch mit den Machern
#Bard #Bing #ChatGPT #Chatbots #Google #ITGeschichte #Infotech #KünstlicheIntelligenz #Microsoft #OpenAI #Prompts #Sprachmodelle #Textgeneratoren #Trainingsdaten #Vorurteile #iOS
Wie fühlt es sich an, einer der Entwickler hinter dem extrem erfolgreichen KI-Textgenerator zu sein? MIT Technology Review durfte exklusiv nachfragen․
#Bard #Bing #ChatGPT #Chatbots #Google #ITGeschichte #Infotech #KünstlicheIntelligenz #Microsoft #OpenAI #Prompts #Sprachmodelle #Textgeneratoren #Trainingsdaten #Vorurteile #iOS
Wie fühlt es sich an, einer der Entwickler hinter dem extrem erfolgreichen KI-Textgenerator zu sein? MIT Technology Review durfte exklusiv nachfragen․
March 8, 2023
KI-Sprachmodelle können Vorurteile selbst korrigieren – wenn man sie bittet
#Bias #Infotech #KünstlicheIntelligenz #Sprachmodell #Trainingsdaten #Vorurteile
Eine Studie des KI-Labors Anthropic zeigt, wie einfache Anweisungen große Sprachmodelle dazu bringen können, weniger toxische Inhalte zu produzieren․
#Bias #Infotech #KünstlicheIntelligenz #Sprachmodell #Trainingsdaten #Vorurteile
Eine Studie des KI-Labors Anthropic zeigt, wie einfache Anweisungen große Sprachmodelle dazu bringen können, weniger toxische Inhalte zu produzieren․
March 27, 2023
Neue Tools zeigen, wie voreingenommen KI-Bildgeneratoren sind
#Bias #DALLE #DallE2 #Infotech #KIBildgenerator #KünstlicheIntelligenz #OpenAI #StabilityAI #StableDiffusion #Stereotypen #Tools #Vorurteile #midjourney
Voreingenommenheit und Stereotypisierung sind immer noch ein Problem für Systeme wie DALL-E 2 und Stable Diffusion․ Reichen die Bemühungen der Anbieter?
#Bias #DALLE #DallE2 #Infotech #KIBildgenerator #KünstlicheIntelligenz #OpenAI #StabilityAI #StableDiffusion #Stereotypen #Tools #Vorurteile #midjourney
Voreingenommenheit und Stereotypisierung sind immer noch ein Problem für Systeme wie DALL-E 2 und Stable Diffusion․ Reichen die Bemühungen der Anbieter?
March 29, 2023
Ein Algorithmus, der Armut bekämpfen soll, disqualifiziert bedürftige Menschen
#Algorithmus #Bias #Geschlecht #Infotech #Jordanien #KünstlicheIntelligenz #Rasse #Sozialleistungen #Vorurteile #Weltbank
Human Rights Watch zufolge bestimmt das Weltbank-finanzierte System zur Verteilung von Sozialleistungen in Jordanien ungenau und ungerecht, wie arm man ist․
#Algorithmus #Bias #Geschlecht #Infotech #Jordanien #KünstlicheIntelligenz #Rasse #Sozialleistungen #Vorurteile #Weltbank
Human Rights Watch zufolge bestimmt das Weltbank-finanzierte System zur Verteilung von Sozialleistungen in Jordanien ungenau und ungerecht, wie arm man ist․
June 20, 2023
Studie prüft, welche KI-Modelle eher links- oder rechtslastige Antworten geben
#Bias #ChatGPT #Facebook #Infotech #KünstlicheIntelligenz #Llama #Spracherkennung #Vorurteile
Forschungsergebnisse zeigen, dass Nutzer mehr rechts- oder linksgerichtete Antworten erhalten, je nachdem, welches KI-Modell sie fragen․
#Bias #ChatGPT #Facebook #Infotech #KünstlicheIntelligenz #Llama #Spracherkennung #Vorurteile
Forschungsergebnisse zeigen, dass Nutzer mehr rechts- oder linksgerichtete Antworten erhalten, je nachdem, welches KI-Modell sie fragen․
August 10, 2023
Internet Summit Austria: "Künstliche Intelligenz ist ein unglücklicher Begriff"
#AI #Algorithmen #Bias #CarinaZehetmaier #DigitalerGraben #Ethik #ISPA #InternetSummitAustria #KünstlicheIntelligenz #Taxtastic #Verantwortung #Voreingenommenheit #Vorurteile #Österreich
Der Umgang mit KI war Thema das Internet Summit Austria 2023․ Dabei ist schon der Begriff Künstliche Intelligenz unklar und umfehdet․
#AI #Algorithmen #Bias #CarinaZehetmaier #DigitalerGraben #Ethik #ISPA #InternetSummitAustria #KünstlicheIntelligenz #Taxtastic #Verantwortung #Voreingenommenheit #Vorurteile #Österreich
Der Umgang mit KI war Thema das Internet Summit Austria 2023․ Dabei ist schon der Begriff Künstliche Intelligenz unklar und umfehdet․
September 29, 2023