heise online Ticker
232 subscribers
72.7K links
News rund um IT und darüber hinaus

Powered by @DerNewsChannel
Download Telegram
Technology Review 6/21: Warum wir KI gerechter und offener gestalten müssen
#Bias #Diskriminierung #Infotech #KünstlicheIntelligenz #MachineLearning

KI steuert Dienste und Apps, die wir jeden Tag nutzen – diskriminiert dabei aber und kann sogar Hass schüren․ Forscher auf der ganzen Welt wollen das ändern․
heise+ | KI: Warum Vielfalt und Regulierung ein Vorteil sind
#Bias #EU #Infotech #KünstlicheIntelligenz #MachineLearning #Neutralität #Wissenschaft

USA und China sind bei der Entwicklung künstlicher Intelligenz derzeit vorn․ Die vielfältige EU-Forschungslandschaft könnte sich aber bald als Vorteil erweisen․
Warum Entscheidungen nach Tagesform gefährlich sind
#Algorithmen #Bauchgefühl #Bias #Entscheidungen #Intuition #Leben #Wissenschaft

Ob im Gericht, in Schule oder Krankenhaus: Fachleute entscheiden oft nach Bauch․ Ungerecht und teuer, sagt Wirtschaftsnobelpreisträger Daniel Kahneman․
Wie synthetische Daten dem Datenschutz helfen
#Bias #Datenschutz #Infotech #KünstlicheIntelligenz #ML #MachineLearning #synthetischeDaten

Synthetische Daten könnten auch eine Rolle dabei spielen, KI datenschutzfreundlicher zu trainieren․ Dazu bedienen sich Experten eines Tricks․
2021: Das Jahr der KI-Monstermodelle
#Bias #GPT3 #Infotech #KünstlicheIntelligenz #Sprachmodell #Training

Das Sprachmodell GPT-3 leitete einen neuen Trend zu immer größeren Modellen ein․ Wie groß können sie werden und was handelt man sich damit ein?
KI im Recruiting: Mist, aber trotzdem im Einsatz
#Bewerber #Bewerbung #Bias #Infotech #KünstlicheIntelligenz #Qualifikation #Recruiting #Vorurteile

Künstliche Intelligenz soll Zeit sparen und Probleme lösen – zum Beispiel auch im Recruiting․ Das funktioniert aber nur bedingt․
KI-Avatare von Lensa: Viel Hype, viel Sexismus – unsere Autorin hat es getestet
#Bias #Bildgenerator #Diskriminierung #Infotech #KünstlicheIntelligenz #Lensa #ML #MachineLearning #Sexismus #StableDiffusion

MIT-Technology-Review-Autorin Melissa Heikkilä lud ihr Bild beim Stable-Diffusion-Bildgenerator Lensa hoch․ Heraus kamen oftmals sexualisierte KI-Aufnahmen․
KI-Regulierung: Wie Google und Microsoft Stimmung gegen den AI Act machen
#AIAct #Bias #ChatGPT #EU #GenerativeAI #Google #Infotech #KIRegulierung #KünstlicheIntelligenz #Lobbyarbeit #Lobbyismus #Microsoft #OpenAI #Transparenz

Das geplante KI-Gesetz könnte Anwendungen wie ChatGPT regulieren․ Die Lobbyisten der Techbranche versuchen sich an Einflussnahme, wie Untersuchungen zeigen․
Transparenzregister soll staatliche KI-Desaster verhindern
#AlgorithmWatch #AutomatedDecisionMaking #Bias #Diskriminierung #GenderBias #KITransparenzregister #KünstlicheIntelligenz #Transparenz #öffentlicheVerwaltung

Falsch konfigurierte automatisierte Entscheidungsverfahren können in Ämtern böse Folgen für Hilfsbedürftige haben․ Grüne und SPD drängen auf ein Verzeichnis․
KI-Sprachmodelle können Vorurteile selbst korrigieren – wenn man sie bittet
#Bias #Infotech #KünstlicheIntelligenz #Sprachmodell #Trainingsdaten #Vorurteile

Eine Studie des KI-Labors Anthropic zeigt, wie einfache Anweisungen große Sprachmodelle dazu bringen können, weniger toxische Inhalte zu produzieren․
Neue Tools zeigen, wie voreingenommen KI-Bildgeneratoren sind
#Bias #DALLE #DallE2 #Infotech #KIBildgenerator #KünstlicheIntelligenz #OpenAI #StabilityAI #StableDiffusion #Stereotypen #Tools #Vorurteile #midjourney

Voreingenommenheit und Stereotypisierung sind immer noch ein Problem für Systeme wie DALL-E 2 und Stable Diffusion․ Reichen die Bemühungen der Anbieter?
Zuverlässige KI: Absicherung künstlicher neuronaler Netze
#Bias #FakeNews #Falschinformationen #GenderBias #KünstlicheIntelligenz #MachineLearning #Zuverlässigkeit

Wie zuverlässig eine KI-Anwendung ist, lässt sich messen․ Das ist oft mathematisch komplex, hat aber enorme praktische Bedeutung․
Ängstliche KI wird rassistischer
#Angst #Bias #Emotionen #KünstlicheIntelligenz #Psychologie #Spracherkennung #Stereotypen

Studie zeigt, Verhalten von großem Sprachmodell ändert sich, wenn die KI zuvor über Angst gesprochen hat․
Ein Algorithmus, der Armut bekämpfen soll, disqualifiziert​ bedürftige Menschen
#Algorithmus #Bias #Geschlecht #Infotech #Jordanien #KünstlicheIntelligenz #Rasse #Sozialleistungen #Vorurteile #Weltbank

Human Rights Watch zufolge bestimmt das Weltbank-finanzierte System zur Verteilung von Sozialleistungen in Jordanien ungenau und ungerecht, wie arm man ist․
Drei Fragen und Antworten: Bei KI kann es keine komplette Fairness geben
#AIAct #Bias #Datenschutz #KünstlicheIntelligenz #ML #MachineLearning #Trainingsdaten #Versicherung

Fairness klingt nach einem weichen Konzept, lässt sich aber technisch umsetzen․ Warum KI dabei nicht alle Menschen in Watte packen kann, klärt iX im Interview․
Outsourcing: Gigworker, die KI trainieren helfen, lassen sich von KI helfen
#AmazonMechanicalTurk #Bias #ChatGPT #Daten #EPFL #Gigworker #Infotech #KünstlicheIntelligenz #Verzerrung #crowdsourcing

Gigworker stehen oft unter Druck und sind schlecht bezahlt․ Setzen sie aber auf KI, könnte das zu weiteren Verzerrungen in ohnehin fehleranfälligen KIs führen․​
Studie prüft, welche KI-Modelle eher links- oder rechtslastige Antworten geben
#Bias #ChatGPT #Facebook #Infotech #KünstlicheIntelligenz #Llama #Spracherkennung #Vorurteile

Forschungsergebnisse zeigen, dass Nutzer mehr rechts- oder linksgerichtete Antworten erhalten, je nachdem, welches KI-Modell sie fragen․
Internet Summit Austria: "Künstliche Intelligenz ist ein unglücklicher Begriff"​
#AI #Algorithmen #Bias #CarinaZehetmaier #DigitalerGraben #Ethik #ISPA #InternetSummitAustria #KünstlicheIntelligenz #Taxtastic #Verantwortung #Voreingenommenheit #Vorurteile #Österreich

Der Umgang mit KI war Thema das Internet Summit Austria 2023․ Dabei ist schon der Begriff Künstliche Intelligenz unklar und umfehdet․​
KI-Update Deep-Dive: Wie der AI Act die Menschenrechte schützen kann
#AIAct #AmnestyInternational #Bias #KIupdate #KünstlicheIntelligenz #Menschenrechte

KI beeinflusst unser Leben, mal offensichtlich, mal versteckt․ Wie transparent damit in der EU umgegangen wird, wird auch vom AI-Act abhängen․