Technology Review
109 subscribers
3.68K links
Hier werden alle Nachrichten aus dem RSS-News-Feed von Technology Review gepostet. 🤓

Mehr News đź“°
@DerNewsChannel

Bei Fragen und Problemen 🤔
@DerNewsChat
Download Telegram
Das Vorurteilsproblem der KI verschwindet nicht
#Bezahlung #Diskriminierung #Geschlechter #Infotech #Justiz #Vorurteile

Bisherige Kurskorrekturen des Feldes zur Vermeidung von Benachteiligungen greifen zu kurz, sagt ein neuer Bericht des Forschungsinstituts AI Now.

Teilen 👉 @DerNewsBot tr152
Wie eingebautes Misstrauen KI-Systeme sicherer machen kann
#Bias #Infotech #KĂĽnstlicheIntelligenz #MachineLearning #Misstrauen #Vertrauen #Vorurteile

Ayanna Howard, Robotikerin und Pädagogin, hält es für gefährlich, automatisierten Systemen zu vertrauen․ Im TR-Interview erläutert sie Lösungsmöglichkeiten․
KI im Recruiting: Mist, aber trotzdem im Einsatz
#Bewerber #Bewerbung #Bias #Infotech #KĂĽnstlicheIntelligenz #Qualifikation #Recruiting #Vorurteile

Künstliche Intelligenz soll Zeit sparen und Probleme lösen – zum Beispiel auch im Recruiting․ Das funktioniert aber nur bedingt․
Wie OpenAI ChatGPT entwickelt hat: Ein exklusives Gespräch mit den Machern
#Bard #Bing #ChatGPT #Chatbots #Google #ITGeschichte #Infotech #KĂĽnstlicheIntelligenz #Microsoft #OpenAI #Prompts #Sprachmodelle #Textgeneratoren #Trainingsdaten #Vorurteile #iOS

Wie fühlt es sich an, einer der Entwickler hinter dem extrem erfolgreichen KI-Textgenerator zu sein? MIT Technology Review durfte exklusiv nachfragen․
KI-Sprachmodelle können Vorurteile selbst korrigieren – wenn man sie bittet
#Bias #Infotech #KĂĽnstlicheIntelligenz #Sprachmodell #Trainingsdaten #Vorurteile

Eine Studie des KI-Labors Anthropic zeigt, wie einfache Anweisungen große Sprachmodelle dazu bringen können, weniger toxische Inhalte zu produzieren․
Neue Tools zeigen, wie voreingenommen KI-Bildgeneratoren sind
#Bias #DALLE #DallE2 #Infotech #KIBildgenerator #KĂĽnstlicheIntelligenz #OpenAI #StabilityAI #StableDiffusion #Stereotypen #Tools #Vorurteile #midjourney

Voreingenommenheit und Stereotypisierung sind immer noch ein Problem für Systeme wie DALL-E 2 und Stable Diffusion․ Reichen die Bemühungen der Anbieter?
Ein Algorithmus, der Armut bekämpfen soll, disqualifiziert​ bedürftige Menschen
#Algorithmus #Bias #Geschlecht #Infotech #Jordanien #KĂĽnstlicheIntelligenz #Rasse #Sozialleistungen #Vorurteile #Weltbank

Human Rights Watch zufolge bestimmt das Weltbank-finanzierte System zur Verteilung von Sozialleistungen in Jordanien ungenau und ungerecht, wie arm man ist․
Studie prĂĽft, welche KI-Modelle eher links- oder rechtslastige Antworten geben
#Bias #ChatGPT #Facebook #Infotech #KĂĽnstlicheIntelligenz #Llama #Spracherkennung #Vorurteile

Forschungsergebnisse zeigen, dass Nutzer mehr rechts- oder linksgerichtete Antworten erhalten, je nachdem, welches KI-Modell sie fragen․