Wie eingebautes Misstrauen KI-Systeme sicherer machen kann
#Bias #Infotech #KünstlicheIntelligenz #MachineLearning #Misstrauen #Vertrauen #Vorurteile
Ayanna Howard, Robotikerin und Pädagogin, hält es für gefährlich, automatisierten Systemen zu vertrauen․ Im TR-Interview erläutert sie Lösungsmöglichkeiten․
#Bias #Infotech #KünstlicheIntelligenz #MachineLearning #Misstrauen #Vertrauen #Vorurteile
Ayanna Howard, Robotikerin und Pädagogin, hält es für gefährlich, automatisierten Systemen zu vertrauen․ Im TR-Interview erläutert sie Lösungsmöglichkeiten․
May 21, 2021
Kreditwürdigkeit in den USA: Wie KI gegen Voreingenommenheit helfen könnte
#Algorithmen #Bias #Infotech #Kredit #Kreditvergabe #KünstlicheIntelligenz #MachineLearning #Minderheiten #Rauschen #USA
Ohne den sogenannten Credit Score geht im amerikanischen Leben nichts․ Minderheiten werden bei der Erfassung noch immer benachteiligt․ Helfen neue Algorithmen?
#Algorithmen #Bias #Infotech #Kredit #Kreditvergabe #KünstlicheIntelligenz #MachineLearning #Minderheiten #Rauschen #USA
Ohne den sogenannten Credit Score geht im amerikanischen Leben nichts․ Minderheiten werden bei der Erfassung noch immer benachteiligt․ Helfen neue Algorithmen?
June 25, 2021
Forscher schlagen Alarm: KI bestimmt Hautfarbe aus Röntgenbildern
#Bias #Infotech #KünstlicheIntelligenz #synthetischeDaten
Wissenschaftler warnen vor rassistischer Benachteiligung durch medizinische KI․ Helfen synthetische Daten, dieses Problem zu lösen?
#Bias #Infotech #KünstlicheIntelligenz #synthetischeDaten
Wissenschaftler warnen vor rassistischer Benachteiligung durch medizinische KI․ Helfen synthetische Daten, dieses Problem zu lösen?
August 18, 2021
Technology Review 6/21: Warum wir KI gerechter und offener gestalten müssen
#Bias #Diskriminierung #Infotech #KünstlicheIntelligenz #MachineLearning
KI steuert Dienste und Apps, die wir jeden Tag nutzen – diskriminiert dabei aber und kann sogar Hass schüren․ Forscher auf der ganzen Welt wollen das ändern․
#Bias #Diskriminierung #Infotech #KünstlicheIntelligenz #MachineLearning
KI steuert Dienste und Apps, die wir jeden Tag nutzen – diskriminiert dabei aber und kann sogar Hass schüren․ Forscher auf der ganzen Welt wollen das ändern․
August 18, 2021
heise+ | KI: Warum Vielfalt und Regulierung ein Vorteil sind
#Bias #EU #Infotech #KünstlicheIntelligenz #MachineLearning #Neutralität #Wissenschaft
USA und China sind bei der Entwicklung künstlicher Intelligenz derzeit vorn․ Die vielfältige EU-Forschungslandschaft könnte sich aber bald als Vorteil erweisen․
#Bias #EU #Infotech #KünstlicheIntelligenz #MachineLearning #Neutralität #Wissenschaft
USA und China sind bei der Entwicklung künstlicher Intelligenz derzeit vorn․ Die vielfältige EU-Forschungslandschaft könnte sich aber bald als Vorteil erweisen․
August 19, 2021
Warum Entscheidungen nach Tagesform gefährlich sind
#Algorithmen #Bauchgefühl #Bias #Entscheidungen #Intuition #Leben #Wissenschaft
Ob im Gericht, in Schule oder Krankenhaus: Fachleute entscheiden oft nach Bauch․ Ungerecht und teuer, sagt Wirtschaftsnobelpreisträger Daniel Kahneman․
#Algorithmen #Bauchgefühl #Bias #Entscheidungen #Intuition #Leben #Wissenschaft
Ob im Gericht, in Schule oder Krankenhaus: Fachleute entscheiden oft nach Bauch․ Ungerecht und teuer, sagt Wirtschaftsnobelpreisträger Daniel Kahneman․
August 24, 2021
Wie synthetische Daten dem Datenschutz helfen
#Bias #Datenschutz #Infotech #KünstlicheIntelligenz #ML #MachineLearning #synthetischeDaten
Synthetische Daten könnten auch eine Rolle dabei spielen, KI datenschutzfreundlicher zu trainieren․ Dazu bedienen sich Experten eines Tricks․
#Bias #Datenschutz #Infotech #KünstlicheIntelligenz #ML #MachineLearning #synthetischeDaten
Synthetische Daten könnten auch eine Rolle dabei spielen, KI datenschutzfreundlicher zu trainieren․ Dazu bedienen sich Experten eines Tricks․
August 30, 2021
2021: Das Jahr der KI-Monstermodelle
#Bias #GPT3 #Infotech #KünstlicheIntelligenz #Sprachmodell #Training
Das Sprachmodell GPT-3 leitete einen neuen Trend zu immer größeren Modellen ein․ Wie groß können sie werden und was handelt man sich damit ein?
#Bias #GPT3 #Infotech #KünstlicheIntelligenz #Sprachmodell #Training
Das Sprachmodell GPT-3 leitete einen neuen Trend zu immer größeren Modellen ein․ Wie groß können sie werden und was handelt man sich damit ein?
December 23, 2021
KI im Recruiting: Mist, aber trotzdem im Einsatz
#Bewerber #Bewerbung #Bias #Infotech #KünstlicheIntelligenz #Qualifikation #Recruiting #Vorurteile
Künstliche Intelligenz soll Zeit sparen und Probleme lösen – zum Beispiel auch im Recruiting․ Das funktioniert aber nur bedingt․
#Bewerber #Bewerbung #Bias #Infotech #KünstlicheIntelligenz #Qualifikation #Recruiting #Vorurteile
Künstliche Intelligenz soll Zeit sparen und Probleme lösen – zum Beispiel auch im Recruiting․ Das funktioniert aber nur bedingt․
April 12, 2022
KI-Avatare von Lensa: Viel Hype, viel Sexismus – unsere Autorin hat es getestet
#Bias #Bildgenerator #Diskriminierung #Infotech #KünstlicheIntelligenz #Lensa #ML #MachineLearning #Sexismus #StableDiffusion
MIT-Technology-Review-Autorin Melissa Heikkilä lud ihr Bild beim Stable-Diffusion-Bildgenerator Lensa hoch․ Heraus kamen oftmals sexualisierte KI-Aufnahmen․
#Bias #Bildgenerator #Diskriminierung #Infotech #KünstlicheIntelligenz #Lensa #ML #MachineLearning #Sexismus #StableDiffusion
MIT-Technology-Review-Autorin Melissa Heikkilä lud ihr Bild beim Stable-Diffusion-Bildgenerator Lensa hoch․ Heraus kamen oftmals sexualisierte KI-Aufnahmen․
December 15, 2022
KI-Regulierung: Wie Google und Microsoft Stimmung gegen den AI Act machen
#AIAct #Bias #ChatGPT #EU #GenerativeAI #Google #Infotech #KIRegulierung #KünstlicheIntelligenz #Lobbyarbeit #Lobbyismus #Microsoft #OpenAI #Transparenz
Das geplante KI-Gesetz könnte Anwendungen wie ChatGPT regulieren․ Die Lobbyisten der Techbranche versuchen sich an Einflussnahme, wie Untersuchungen zeigen․
#AIAct #Bias #ChatGPT #EU #GenerativeAI #Google #Infotech #KIRegulierung #KünstlicheIntelligenz #Lobbyarbeit #Lobbyismus #Microsoft #OpenAI #Transparenz
Das geplante KI-Gesetz könnte Anwendungen wie ChatGPT regulieren․ Die Lobbyisten der Techbranche versuchen sich an Einflussnahme, wie Untersuchungen zeigen․
March 1, 2023
Transparenzregister soll staatliche KI-Desaster verhindern
#AlgorithmWatch #AutomatedDecisionMaking #Bias #Diskriminierung #GenderBias #KITransparenzregister #KünstlicheIntelligenz #Transparenz #öffentlicheVerwaltung
Falsch konfigurierte automatisierte Entscheidungsverfahren können in Ämtern böse Folgen für Hilfsbedürftige haben․ Grüne und SPD drängen auf ein Verzeichnis․
#AlgorithmWatch #AutomatedDecisionMaking #Bias #Diskriminierung #GenderBias #KITransparenzregister #KünstlicheIntelligenz #Transparenz #öffentlicheVerwaltung
Falsch konfigurierte automatisierte Entscheidungsverfahren können in Ämtern böse Folgen für Hilfsbedürftige haben․ Grüne und SPD drängen auf ein Verzeichnis․
March 3, 2023
KI-Sprachmodelle können Vorurteile selbst korrigieren – wenn man sie bittet
#Bias #Infotech #KünstlicheIntelligenz #Sprachmodell #Trainingsdaten #Vorurteile
Eine Studie des KI-Labors Anthropic zeigt, wie einfache Anweisungen große Sprachmodelle dazu bringen können, weniger toxische Inhalte zu produzieren․
#Bias #Infotech #KünstlicheIntelligenz #Sprachmodell #Trainingsdaten #Vorurteile
Eine Studie des KI-Labors Anthropic zeigt, wie einfache Anweisungen große Sprachmodelle dazu bringen können, weniger toxische Inhalte zu produzieren․
March 27, 2023
Neue Tools zeigen, wie voreingenommen KI-Bildgeneratoren sind
#Bias #DALLE #DallE2 #Infotech #KIBildgenerator #KünstlicheIntelligenz #OpenAI #StabilityAI #StableDiffusion #Stereotypen #Tools #Vorurteile #midjourney
Voreingenommenheit und Stereotypisierung sind immer noch ein Problem für Systeme wie DALL-E 2 und Stable Diffusion․ Reichen die Bemühungen der Anbieter?
#Bias #DALLE #DallE2 #Infotech #KIBildgenerator #KünstlicheIntelligenz #OpenAI #StabilityAI #StableDiffusion #Stereotypen #Tools #Vorurteile #midjourney
Voreingenommenheit und Stereotypisierung sind immer noch ein Problem für Systeme wie DALL-E 2 und Stable Diffusion․ Reichen die Bemühungen der Anbieter?
March 29, 2023
Zuverlässige KI: Absicherung künstlicher neuronaler Netze
#Bias #FakeNews #Falschinformationen #GenderBias #KünstlicheIntelligenz #MachineLearning #Zuverlässigkeit
Wie zuverlässig eine KI-Anwendung ist, lässt sich messen․ Das ist oft mathematisch komplex, hat aber enorme praktische Bedeutung․
#Bias #FakeNews #Falschinformationen #GenderBias #KünstlicheIntelligenz #MachineLearning #Zuverlässigkeit
Wie zuverlässig eine KI-Anwendung ist, lässt sich messen․ Das ist oft mathematisch komplex, hat aber enorme praktische Bedeutung․
April 18, 2023
Ängstliche KI wird rassistischer
#Angst #Bias #Emotionen #KünstlicheIntelligenz #Psychologie #Spracherkennung #Stereotypen
Studie zeigt, Verhalten von großem Sprachmodell ändert sich, wenn die KI zuvor über Angst gesprochen hat․
#Angst #Bias #Emotionen #KünstlicheIntelligenz #Psychologie #Spracherkennung #Stereotypen
Studie zeigt, Verhalten von großem Sprachmodell ändert sich, wenn die KI zuvor über Angst gesprochen hat․
May 3, 2023
Ein Algorithmus, der Armut bekämpfen soll, disqualifiziert bedürftige Menschen
#Algorithmus #Bias #Geschlecht #Infotech #Jordanien #KünstlicheIntelligenz #Rasse #Sozialleistungen #Vorurteile #Weltbank
Human Rights Watch zufolge bestimmt das Weltbank-finanzierte System zur Verteilung von Sozialleistungen in Jordanien ungenau und ungerecht, wie arm man ist․
#Algorithmus #Bias #Geschlecht #Infotech #Jordanien #KünstlicheIntelligenz #Rasse #Sozialleistungen #Vorurteile #Weltbank
Human Rights Watch zufolge bestimmt das Weltbank-finanzierte System zur Verteilung von Sozialleistungen in Jordanien ungenau und ungerecht, wie arm man ist․
June 20, 2023
Drei Fragen und Antworten: Bei KI kann es keine komplette Fairness geben
#AIAct #Bias #Datenschutz #KünstlicheIntelligenz #ML #MachineLearning #Trainingsdaten #Versicherung
Fairness klingt nach einem weichen Konzept, lässt sich aber technisch umsetzen․ Warum KI dabei nicht alle Menschen in Watte packen kann, klärt iX im Interview․
#AIAct #Bias #Datenschutz #KünstlicheIntelligenz #ML #MachineLearning #Trainingsdaten #Versicherung
Fairness klingt nach einem weichen Konzept, lässt sich aber technisch umsetzen․ Warum KI dabei nicht alle Menschen in Watte packen kann, klärt iX im Interview․
June 24, 2023
Outsourcing: Gigworker, die KI trainieren helfen, lassen sich von KI helfen
#AmazonMechanicalTurk #Bias #ChatGPT #Daten #EPFL #Gigworker #Infotech #KünstlicheIntelligenz #Verzerrung #crowdsourcing
Gigworker stehen oft unter Druck und sind schlecht bezahlt․ Setzen sie aber auf KI, könnte das zu weiteren Verzerrungen in ohnehin fehleranfälligen KIs führen․
#AmazonMechanicalTurk #Bias #ChatGPT #Daten #EPFL #Gigworker #Infotech #KünstlicheIntelligenz #Verzerrung #crowdsourcing
Gigworker stehen oft unter Druck und sind schlecht bezahlt․ Setzen sie aber auf KI, könnte das zu weiteren Verzerrungen in ohnehin fehleranfälligen KIs führen․
June 27, 2023
Studie prüft, welche KI-Modelle eher links- oder rechtslastige Antworten geben
#Bias #ChatGPT #Facebook #Infotech #KünstlicheIntelligenz #Llama #Spracherkennung #Vorurteile
Forschungsergebnisse zeigen, dass Nutzer mehr rechts- oder linksgerichtete Antworten erhalten, je nachdem, welches KI-Modell sie fragen․
#Bias #ChatGPT #Facebook #Infotech #KünstlicheIntelligenz #Llama #Spracherkennung #Vorurteile
Forschungsergebnisse zeigen, dass Nutzer mehr rechts- oder linksgerichtete Antworten erhalten, je nachdem, welches KI-Modell sie fragen․
August 10, 2023