heise online Ticker
232 subscribers
72.7K links
News rund um IT und darüber hinaus

Powered by @DerNewsChannel
Download Telegram
Wie eingebautes Misstrauen KI-Systeme sicherer machen kann
#Bias #Infotech #KünstlicheIntelligenz #MachineLearning #Misstrauen #Vertrauen #Vorurteile

Ayanna Howard, Robotikerin und Pädagogin, hält es für gefährlich, automatisierten Systemen zu vertrauen․ Im TR-Interview erläutert sie Lösungsmöglichkeiten․
Kreditwürdigkeit in den USA: Wie KI gegen Voreingenommenheit helfen könnte
#Algorithmen #Bias #Infotech #Kredit #Kreditvergabe #KünstlicheIntelligenz #MachineLearning #Minderheiten #Rauschen #USA

Ohne den sogenannten Credit Score geht im amerikanischen Leben nichts․ Minderheiten werden bei der Erfassung noch immer benachteiligt․ Helfen neue Algorithmen?
Forscher schlagen Alarm: KI bestimmt Hautfarbe aus Röntgenbildern
#Bias #Infotech #KünstlicheIntelligenz #synthetischeDaten

Wissenschaftler warnen vor rassistischer Benachteiligung durch medizinische KI․ Helfen synthetische Daten, dieses Problem zu lösen?
Technology Review 6/21: Warum wir KI gerechter und offener gestalten müssen
#Bias #Diskriminierung #Infotech #KünstlicheIntelligenz #MachineLearning

KI steuert Dienste und Apps, die wir jeden Tag nutzen – diskriminiert dabei aber und kann sogar Hass schüren․ Forscher auf der ganzen Welt wollen das ändern․
heise+ | KI: Warum Vielfalt und Regulierung ein Vorteil sind
#Bias #EU #Infotech #KünstlicheIntelligenz #MachineLearning #Neutralität #Wissenschaft

USA und China sind bei der Entwicklung künstlicher Intelligenz derzeit vorn․ Die vielfältige EU-Forschungslandschaft könnte sich aber bald als Vorteil erweisen․
Warum Entscheidungen nach Tagesform gefährlich sind
#Algorithmen #Bauchgefühl #Bias #Entscheidungen #Intuition #Leben #Wissenschaft

Ob im Gericht, in Schule oder Krankenhaus: Fachleute entscheiden oft nach Bauch․ Ungerecht und teuer, sagt Wirtschaftsnobelpreisträger Daniel Kahneman․
Wie synthetische Daten dem Datenschutz helfen
#Bias #Datenschutz #Infotech #KünstlicheIntelligenz #ML #MachineLearning #synthetischeDaten

Synthetische Daten könnten auch eine Rolle dabei spielen, KI datenschutzfreundlicher zu trainieren․ Dazu bedienen sich Experten eines Tricks․
2021: Das Jahr der KI-Monstermodelle
#Bias #GPT3 #Infotech #KünstlicheIntelligenz #Sprachmodell #Training

Das Sprachmodell GPT-3 leitete einen neuen Trend zu immer größeren Modellen ein․ Wie groß können sie werden und was handelt man sich damit ein?
KI im Recruiting: Mist, aber trotzdem im Einsatz
#Bewerber #Bewerbung #Bias #Infotech #KünstlicheIntelligenz #Qualifikation #Recruiting #Vorurteile

Künstliche Intelligenz soll Zeit sparen und Probleme lösen – zum Beispiel auch im Recruiting․ Das funktioniert aber nur bedingt․
KI-Avatare von Lensa: Viel Hype, viel Sexismus – unsere Autorin hat es getestet
#Bias #Bildgenerator #Diskriminierung #Infotech #KünstlicheIntelligenz #Lensa #ML #MachineLearning #Sexismus #StableDiffusion

MIT-Technology-Review-Autorin Melissa Heikkilä lud ihr Bild beim Stable-Diffusion-Bildgenerator Lensa hoch․ Heraus kamen oftmals sexualisierte KI-Aufnahmen․
KI-Regulierung: Wie Google und Microsoft Stimmung gegen den AI Act machen
#AIAct #Bias #ChatGPT #EU #GenerativeAI #Google #Infotech #KIRegulierung #KünstlicheIntelligenz #Lobbyarbeit #Lobbyismus #Microsoft #OpenAI #Transparenz

Das geplante KI-Gesetz könnte Anwendungen wie ChatGPT regulieren․ Die Lobbyisten der Techbranche versuchen sich an Einflussnahme, wie Untersuchungen zeigen․
Transparenzregister soll staatliche KI-Desaster verhindern
#AlgorithmWatch #AutomatedDecisionMaking #Bias #Diskriminierung #GenderBias #KITransparenzregister #KünstlicheIntelligenz #Transparenz #öffentlicheVerwaltung

Falsch konfigurierte automatisierte Entscheidungsverfahren können in Ämtern böse Folgen für Hilfsbedürftige haben․ Grüne und SPD drängen auf ein Verzeichnis․
KI-Sprachmodelle können Vorurteile selbst korrigieren – wenn man sie bittet
#Bias #Infotech #KünstlicheIntelligenz #Sprachmodell #Trainingsdaten #Vorurteile

Eine Studie des KI-Labors Anthropic zeigt, wie einfache Anweisungen große Sprachmodelle dazu bringen können, weniger toxische Inhalte zu produzieren․
Neue Tools zeigen, wie voreingenommen KI-Bildgeneratoren sind
#Bias #DALLE #DallE2 #Infotech #KIBildgenerator #KünstlicheIntelligenz #OpenAI #StabilityAI #StableDiffusion #Stereotypen #Tools #Vorurteile #midjourney

Voreingenommenheit und Stereotypisierung sind immer noch ein Problem für Systeme wie DALL-E 2 und Stable Diffusion․ Reichen die Bemühungen der Anbieter?
Zuverlässige KI: Absicherung künstlicher neuronaler Netze
#Bias #FakeNews #Falschinformationen #GenderBias #KünstlicheIntelligenz #MachineLearning #Zuverlässigkeit

Wie zuverlässig eine KI-Anwendung ist, lässt sich messen․ Das ist oft mathematisch komplex, hat aber enorme praktische Bedeutung․
Ängstliche KI wird rassistischer
#Angst #Bias #Emotionen #KünstlicheIntelligenz #Psychologie #Spracherkennung #Stereotypen

Studie zeigt, Verhalten von großem Sprachmodell ändert sich, wenn die KI zuvor über Angst gesprochen hat․
Ein Algorithmus, der Armut bekämpfen soll, disqualifiziert​ bedürftige Menschen
#Algorithmus #Bias #Geschlecht #Infotech #Jordanien #KünstlicheIntelligenz #Rasse #Sozialleistungen #Vorurteile #Weltbank

Human Rights Watch zufolge bestimmt das Weltbank-finanzierte System zur Verteilung von Sozialleistungen in Jordanien ungenau und ungerecht, wie arm man ist․