heise online Ticker
235 subscribers
72.7K links
News rund um IT und darüber hinaus

Powered by @DerNewsChannel
Download Telegram
Weiße Stereotype bei intelligenten Maschinen: zu viel "Whiteness" in der KI
#Bias #KünstlicheIntelligenz #Rassismus #Vorurteile

Intelligente Maschinen – reale und auch fiktionale – spiegeln fast ausschließlich weiße Stereotype wider, haben Forscher herausgefunden․
Analyse: KI-Sprachmodell GPT-3 hegt tief verankerte Vorurteile gegen Muslime
#GPT3 #KünstlicheIntelligenz #Vorurteile

Die Text-KI GPT-3 wurde mit Unmengen an Texten aus dem Internet trainiert․ Mitgenommen hat sie daraus offenbar jede Menge Vorurteile gegen Muslime․
Algorithmen zur Bildgenerierung: Männer tragen Anzüge, Frauen Bikinis
#KünstlicheIntelligenz #MachineLearning #Sexismus #Vorurteile

Algorithmen können inzwischen täuschend echt Fotos aus Bildteilen vervollständigen․ Die Ergebnisse sind offenbar so sexistisch wie das Trainingsmaterial․
Wie eingebautes Misstrauen KI-Systeme sicherer machen kann
#Bias #Infotech #KünstlicheIntelligenz #MachineLearning #Misstrauen #Vertrauen #Vorurteile

Ayanna Howard, Robotikerin und Pädagogin, hält es für gefährlich, automatisierten Systemen zu vertrauen․ Im TR-Interview erläutert sie Lösungsmöglichkeiten․
Twitter-Algorithmus bevorzugt auch junge Gesichter und lateinische Schrift
#Algorithmen #Benachteiligung #Twitter #Vorurteile

Mit Preisgeldern hat Twitter die Suche nach weiteren Vorurteilen eines bereits ausgemusterten Algorithmus unterstützt․ Die Teilnehmenden wurden fündig․
New York City: Gesetz soll KI-Einsatz für Bewerbungen regulieren
#Algorithmen #Bewerbungen #Geschlechter #Karriere #KünstlicheIntelligenz #NewYorkCity #Rassismus #Vorurteile

Anbieter von KI-Tools zur Besetzung offener Stellen müssen in New York City zukünftig Audits bestehen und transparenter werden, sonst ist der Einsatz verboten․
KI im Recruiting: Mist, aber trotzdem im Einsatz
#Bewerber #Bewerbung #Bias #Infotech #KünstlicheIntelligenz #Qualifikation #Recruiting #Vorurteile

Künstliche Intelligenz soll Zeit sparen und Probleme lösen – zum Beispiel auch im Recruiting․ Das funktioniert aber nur bedingt․
Google: Neue Hautton-Skala soll Fotosuche, Filter und KI-Forschung verbessern
#Google #GoogleIO #KünstlicheIntelligenz #Vorurteile

In die Produkte von Google soll eine neue Skala für Hauttöne Einzug halten, die People of Color besser repräsentieren soll․ Google gibt die Skala außerdem frei․
McKinsey-Studie: Niedriger Frauenanteil bei Tech-Jobs bremst Wirtschaft aus
#Diversität #Europa #Fachkräftemangel #Frauen #Förderung #Geschlechterrollen #ITFachkräfte #Kinderbetreuung #MINT #McKinsey #Männer #Technik #Vorurteile

Jungen sind in Mathematik oder Informatik nicht besser als ihre Mitschülerinnen․ Nach der Schule trennen sich allerdings ihre Wege․ Das schade der Wirtschaft․
Wie OpenAI ChatGPT entwickelt hat: Ein exklusives Gespräch mit den Machern
#Bard #Bing #ChatGPT #Chatbots #Google #ITGeschichte #Infotech #KünstlicheIntelligenz #Microsoft #OpenAI #Prompts #Sprachmodelle #Textgeneratoren #Trainingsdaten #Vorurteile #iOS

Wie fühlt es sich an, einer der Entwickler hinter dem extrem erfolgreichen KI-Textgenerator zu sein? MIT Technology Review durfte exklusiv nachfragen․
KI-Sprachmodelle können Vorurteile selbst korrigieren – wenn man sie bittet
#Bias #Infotech #KünstlicheIntelligenz #Sprachmodell #Trainingsdaten #Vorurteile

Eine Studie des KI-Labors Anthropic zeigt, wie einfache Anweisungen große Sprachmodelle dazu bringen können, weniger toxische Inhalte zu produzieren․
Neue Tools zeigen, wie voreingenommen KI-Bildgeneratoren sind
#Bias #DALLE #DallE2 #Infotech #KIBildgenerator #KünstlicheIntelligenz #OpenAI #StabilityAI #StableDiffusion #Stereotypen #Tools #Vorurteile #midjourney

Voreingenommenheit und Stereotypisierung sind immer noch ein Problem für Systeme wie DALL-E 2 und Stable Diffusion․ Reichen die Bemühungen der Anbieter?
Ein Algorithmus, der Armut bekämpfen soll, disqualifiziert​ bedürftige Menschen
#Algorithmus #Bias #Geschlecht #Infotech #Jordanien #KünstlicheIntelligenz #Rasse #Sozialleistungen #Vorurteile #Weltbank

Human Rights Watch zufolge bestimmt das Weltbank-finanzierte System zur Verteilung von Sozialleistungen in Jordanien ungenau und ungerecht, wie arm man ist․
Studie prüft, welche KI-Modelle eher links- oder rechtslastige Antworten geben
#Bias #ChatGPT #Facebook #Infotech #KünstlicheIntelligenz #Llama #Spracherkennung #Vorurteile

Forschungsergebnisse zeigen, dass Nutzer mehr rechts- oder linksgerichtete Antworten erhalten, je nachdem, welches KI-Modell sie fragen․
Internet Summit Austria: "Künstliche Intelligenz ist ein unglücklicher Begriff"​
#AI #Algorithmen #Bias #CarinaZehetmaier #DigitalerGraben #Ethik #ISPA #InternetSummitAustria #KünstlicheIntelligenz #Taxtastic #Verantwortung #Voreingenommenheit #Vorurteile #Österreich

Der Umgang mit KI war Thema das Internet Summit Austria 2023․ Dabei ist schon der Begriff Künstliche Intelligenz unklar und umfehdet․​