Technology Review
109 subscribers
3.68K links
Hier werden alle Nachrichten aus dem RSS-News-Feed von Technology Review gepostet. 🤓

Mehr News đź“°
@DerNewsChannel

Bei Fragen und Problemen 🤔
@DerNewsChat
Download Telegram
KI-Sprachmodelle können Vorurteile selbst korrigieren – wenn man sie bittet
#Bias #Infotech #KĂĽnstlicheIntelligenz #Sprachmodell #Trainingsdaten #Vorurteile

Eine Studie des KI-Labors Anthropic zeigt, wie einfache Anweisungen große Sprachmodelle dazu bringen können, weniger toxische Inhalte zu produzieren․
Neue Tools zeigen, wie voreingenommen KI-Bildgeneratoren sind
#Bias #DALLE #DallE2 #Infotech #KIBildgenerator #KĂĽnstlicheIntelligenz #OpenAI #StabilityAI #StableDiffusion #Stereotypen #Tools #Vorurteile #midjourney

Voreingenommenheit und Stereotypisierung sind immer noch ein Problem für Systeme wie DALL-E 2 und Stable Diffusion․ Reichen die Bemühungen der Anbieter?
Ă„ngstliche KI wird rassistischer
#Angst #Bias #Emotionen #KĂĽnstlicheIntelligenz #Psychologie #Spracherkennung #Stereotypen

Studie zeigt, Verhalten von großem Sprachmodell ändert sich, wenn die KI zuvor über Angst gesprochen hat․
Ein Algorithmus, der Armut bekämpfen soll, disqualifiziert​ bedürftige Menschen
#Algorithmus #Bias #Geschlecht #Infotech #Jordanien #KĂĽnstlicheIntelligenz #Rasse #Sozialleistungen #Vorurteile #Weltbank

Human Rights Watch zufolge bestimmt das Weltbank-finanzierte System zur Verteilung von Sozialleistungen in Jordanien ungenau und ungerecht, wie arm man ist․
Outsourcing: Gigworker, die KI trainieren helfen, lassen sich von KI helfen
#AmazonMechanicalTurk #Bias #ChatGPT #Daten #EPFL #Gigworker #Infotech #KĂĽnstlicheIntelligenz #Verzerrung #crowdsourcing

Gigworker stehen oft unter Druck und sind schlecht bezahlt․ Setzen sie aber auf KI, könnte das zu weiteren Verzerrungen in ohnehin fehleranfälligen KIs führen․​
Studie prĂĽft, welche KI-Modelle eher links- oder rechtslastige Antworten geben
#Bias #ChatGPT #Facebook #Infotech #KĂĽnstlicheIntelligenz #Llama #Spracherkennung #Vorurteile

Forschungsergebnisse zeigen, dass Nutzer mehr rechts- oder linksgerichtete Antworten erhalten, je nachdem, welches KI-Modell sie fragen․