Das Vorurteilsproblem der KI verschwindet nicht
#Bezahlung #Diskriminierung #Geschlechter #Infotech #Justiz #Vorurteile
Bisherige Kurskorrekturen des Feldes zur Vermeidung von Benachteiligungen greifen zu kurz, sagt ein neuer Bericht des Forschungsinstituts AI Now.
Teilen 👉
#Bezahlung #Diskriminierung #Geschlechter #Infotech #Justiz #Vorurteile
Bisherige Kurskorrekturen des Feldes zur Vermeidung von Benachteiligungen greifen zu kurz, sagt ein neuer Bericht des Forschungsinstituts AI Now.
Teilen 👉
@DerNewsBot tr152
Wie eingebautes Misstrauen KI-Systeme sicherer machen kann
#Bias #Infotech #KĂĽnstlicheIntelligenz #MachineLearning #Misstrauen #Vertrauen #Vorurteile
Ayanna Howard, Robotikerin und Pädagogin, hält es für gefährlich, automatisierten Systemen zu vertrauen․ Im TR-Interview erläutert sie Lösungsmöglichkeiten․
#Bias #Infotech #KĂĽnstlicheIntelligenz #MachineLearning #Misstrauen #Vertrauen #Vorurteile
Ayanna Howard, Robotikerin und Pädagogin, hält es für gefährlich, automatisierten Systemen zu vertrauen․ Im TR-Interview erläutert sie Lösungsmöglichkeiten․
KI im Recruiting: Mist, aber trotzdem im Einsatz
#Bewerber #Bewerbung #Bias #Infotech #KĂĽnstlicheIntelligenz #Qualifikation #Recruiting #Vorurteile
Künstliche Intelligenz soll Zeit sparen und Probleme lösen – zum Beispiel auch im Recruiting․ Das funktioniert aber nur bedingt․
#Bewerber #Bewerbung #Bias #Infotech #KĂĽnstlicheIntelligenz #Qualifikation #Recruiting #Vorurteile
Künstliche Intelligenz soll Zeit sparen und Probleme lösen – zum Beispiel auch im Recruiting․ Das funktioniert aber nur bedingt․
Wie OpenAI ChatGPT entwickelt hat: Ein exklusives Gespräch mit den Machern
#Bard #Bing #ChatGPT #Chatbots #Google #ITGeschichte #Infotech #KĂĽnstlicheIntelligenz #Microsoft #OpenAI #Prompts #Sprachmodelle #Textgeneratoren #Trainingsdaten #Vorurteile #iOS
Wie fühlt es sich an, einer der Entwickler hinter dem extrem erfolgreichen KI-Textgenerator zu sein? MIT Technology Review durfte exklusiv nachfragen․
#Bard #Bing #ChatGPT #Chatbots #Google #ITGeschichte #Infotech #KĂĽnstlicheIntelligenz #Microsoft #OpenAI #Prompts #Sprachmodelle #Textgeneratoren #Trainingsdaten #Vorurteile #iOS
Wie fühlt es sich an, einer der Entwickler hinter dem extrem erfolgreichen KI-Textgenerator zu sein? MIT Technology Review durfte exklusiv nachfragen․
KI-Sprachmodelle können Vorurteile selbst korrigieren – wenn man sie bittet
#Bias #Infotech #KĂĽnstlicheIntelligenz #Sprachmodell #Trainingsdaten #Vorurteile
Eine Studie des KI-Labors Anthropic zeigt, wie einfache Anweisungen große Sprachmodelle dazu bringen können, weniger toxische Inhalte zu produzieren․
#Bias #Infotech #KĂĽnstlicheIntelligenz #Sprachmodell #Trainingsdaten #Vorurteile
Eine Studie des KI-Labors Anthropic zeigt, wie einfache Anweisungen große Sprachmodelle dazu bringen können, weniger toxische Inhalte zu produzieren․
Neue Tools zeigen, wie voreingenommen KI-Bildgeneratoren sind
#Bias #DALLE #DallE2 #Infotech #KIBildgenerator #KĂĽnstlicheIntelligenz #OpenAI #StabilityAI #StableDiffusion #Stereotypen #Tools #Vorurteile #midjourney
Voreingenommenheit und Stereotypisierung sind immer noch ein Problem für Systeme wie DALL-E 2 und Stable Diffusion․ Reichen die Bemühungen der Anbieter?
#Bias #DALLE #DallE2 #Infotech #KIBildgenerator #KĂĽnstlicheIntelligenz #OpenAI #StabilityAI #StableDiffusion #Stereotypen #Tools #Vorurteile #midjourney
Voreingenommenheit und Stereotypisierung sind immer noch ein Problem für Systeme wie DALL-E 2 und Stable Diffusion․ Reichen die Bemühungen der Anbieter?
Ein Algorithmus, der Armut bekämpfen soll, disqualifiziert​ bedürftige Menschen
#Algorithmus #Bias #Geschlecht #Infotech #Jordanien #KĂĽnstlicheIntelligenz #Rasse #Sozialleistungen #Vorurteile #Weltbank
Human Rights Watch zufolge bestimmt das Weltbank-finanzierte System zur Verteilung von Sozialleistungen in Jordanien ungenau und ungerecht, wie arm man ist․
#Algorithmus #Bias #Geschlecht #Infotech #Jordanien #KĂĽnstlicheIntelligenz #Rasse #Sozialleistungen #Vorurteile #Weltbank
Human Rights Watch zufolge bestimmt das Weltbank-finanzierte System zur Verteilung von Sozialleistungen in Jordanien ungenau und ungerecht, wie arm man ist․
Studie prĂĽft, welche KI-Modelle eher links- oder rechtslastige Antworten geben
#Bias #ChatGPT #Facebook #Infotech #KĂĽnstlicheIntelligenz #Llama #Spracherkennung #Vorurteile
Forschungsergebnisse zeigen, dass Nutzer mehr rechts- oder linksgerichtete Antworten erhalten, je nachdem, welches KI-Modell sie fragen․
#Bias #ChatGPT #Facebook #Infotech #KĂĽnstlicheIntelligenz #Llama #Spracherkennung #Vorurteile
Forschungsergebnisse zeigen, dass Nutzer mehr rechts- oder linksgerichtete Antworten erhalten, je nachdem, welches KI-Modell sie fragen․