heise online Ticker
227 subscribers
72.7K links
News rund um IT und darüber hinaus

Powered by @DerNewsChannel
Download Telegram
Transparenzregister soll staatliche KI-Desaster verhindern
#AlgorithmWatch #AutomatedDecisionMaking #Bias #Diskriminierung #GenderBias #KITransparenzregister #KünstlicheIntelligenz #Transparenz #öffentlicheVerwaltung

Falsch konfigurierte automatisierte Entscheidungsverfahren können in Ämtern böse Folgen für Hilfsbedürftige haben․ Grüne und SPD drängen auf ein Verzeichnis․
KI-Sprachmodelle können Vorurteile selbst korrigieren – wenn man sie bittet
#Bias #Infotech #KünstlicheIntelligenz #Sprachmodell #Trainingsdaten #Vorurteile

Eine Studie des KI-Labors Anthropic zeigt, wie einfache Anweisungen große Sprachmodelle dazu bringen können, weniger toxische Inhalte zu produzieren․
Neue Tools zeigen, wie voreingenommen KI-Bildgeneratoren sind
#Bias #DALLE #DallE2 #Infotech #KIBildgenerator #KünstlicheIntelligenz #OpenAI #StabilityAI #StableDiffusion #Stereotypen #Tools #Vorurteile #midjourney

Voreingenommenheit und Stereotypisierung sind immer noch ein Problem für Systeme wie DALL-E 2 und Stable Diffusion․ Reichen die Bemühungen der Anbieter?
Zuverlässige KI: Absicherung künstlicher neuronaler Netze
#Bias #FakeNews #Falschinformationen #GenderBias #KünstlicheIntelligenz #MachineLearning #Zuverlässigkeit

Wie zuverlässig eine KI-Anwendung ist, lässt sich messen․ Das ist oft mathematisch komplex, hat aber enorme praktische Bedeutung․
Ängstliche KI wird rassistischer
#Angst #Bias #Emotionen #KünstlicheIntelligenz #Psychologie #Spracherkennung #Stereotypen

Studie zeigt, Verhalten von großem Sprachmodell ändert sich, wenn die KI zuvor über Angst gesprochen hat․
Ein Algorithmus, der Armut bekämpfen soll, disqualifiziert​ bedürftige Menschen
#Algorithmus #Bias #Geschlecht #Infotech #Jordanien #KünstlicheIntelligenz #Rasse #Sozialleistungen #Vorurteile #Weltbank

Human Rights Watch zufolge bestimmt das Weltbank-finanzierte System zur Verteilung von Sozialleistungen in Jordanien ungenau und ungerecht, wie arm man ist․
Drei Fragen und Antworten: Bei KI kann es keine komplette Fairness geben
#AIAct #Bias #Datenschutz #KünstlicheIntelligenz #ML #MachineLearning #Trainingsdaten #Versicherung

Fairness klingt nach einem weichen Konzept, lässt sich aber technisch umsetzen․ Warum KI dabei nicht alle Menschen in Watte packen kann, klärt iX im Interview․
Outsourcing: Gigworker, die KI trainieren helfen, lassen sich von KI helfen
#AmazonMechanicalTurk #Bias #ChatGPT #Daten #EPFL #Gigworker #Infotech #KünstlicheIntelligenz #Verzerrung #crowdsourcing

Gigworker stehen oft unter Druck und sind schlecht bezahlt․ Setzen sie aber auf KI, könnte das zu weiteren Verzerrungen in ohnehin fehleranfälligen KIs führen․​
Studie prüft, welche KI-Modelle eher links- oder rechtslastige Antworten geben
#Bias #ChatGPT #Facebook #Infotech #KünstlicheIntelligenz #Llama #Spracherkennung #Vorurteile

Forschungsergebnisse zeigen, dass Nutzer mehr rechts- oder linksgerichtete Antworten erhalten, je nachdem, welches KI-Modell sie fragen․
Internet Summit Austria: "Künstliche Intelligenz ist ein unglücklicher Begriff"​
#AI #Algorithmen #Bias #CarinaZehetmaier #DigitalerGraben #Ethik #ISPA #InternetSummitAustria #KünstlicheIntelligenz #Taxtastic #Verantwortung #Voreingenommenheit #Vorurteile #Österreich

Der Umgang mit KI war Thema das Internet Summit Austria 2023․ Dabei ist schon der Begriff Künstliche Intelligenz unklar und umfehdet․​
KI-Update Deep-Dive: Wie der AI Act die Menschenrechte schützen kann
#AIAct #AmnestyInternational #Bias #KIupdate #KünstlicheIntelligenz #Menschenrechte

KI beeinflusst unser Leben, mal offensichtlich, mal versteckt․ Wie transparent damit in der EU umgegangen wird, wird auch vom AI-Act abhängen․