KI könnte die Gesundheitsversorgung gerechter machen
#Arthrose #Bias #Diagnostik #KünstlicheIntelligenz #Leben #Medizin #Röntgen #Schwarze #Ungleichheit
Ein genaueres Training von Deep-Learning-Modellen könnte die Bewertung von Schmerzen verbessern und Ärzten helfen, Patienten mehr zu glauben․
#Arthrose #Bias #Diagnostik #KünstlicheIntelligenz #Leben #Medizin #Röntgen #Schwarze #Ungleichheit
Ein genaueres Training von Deep-Learning-Modellen könnte die Bewertung von Schmerzen verbessern und Ärzten helfen, Patienten mehr zu glauben․
Predictive Policing: Studien sehen weiterhin Rassismus
#Bias #Infotech #Polizei #PredictivePolicing #Rassismus #Strafverfolgung #USA
Wenn Behörden Algorithmen zur Strafverfolgung nutzen, dürfen diese keinen Bias haben․ Doch dem ist noch immer nicht so, wie Forscher in den USA demonstrieren․
#Bias #Infotech #Polizei #PredictivePolicing #Rassismus #Strafverfolgung #USA
Wenn Behörden Algorithmen zur Strafverfolgung nutzen, dürfen diese keinen Bias haben․ Doch dem ist noch immer nicht so, wie Forscher in den USA demonstrieren․
Wie eingebautes Misstrauen KI-Systeme sicherer machen kann
#Bias #Infotech #KĂĽnstlicheIntelligenz #MachineLearning #Misstrauen #Vertrauen #Vorurteile
Ayanna Howard, Robotikerin und Pädagogin, hält es für gefährlich, automatisierten Systemen zu vertrauen․ Im TR-Interview erläutert sie Lösungsmöglichkeiten․
#Bias #Infotech #KĂĽnstlicheIntelligenz #MachineLearning #Misstrauen #Vertrauen #Vorurteile
Ayanna Howard, Robotikerin und Pädagogin, hält es für gefährlich, automatisierten Systemen zu vertrauen․ Im TR-Interview erläutert sie Lösungsmöglichkeiten․
Kreditwürdigkeit in den USA: Wie KI gegen Voreingenommenheit helfen könnte
#Algorithmen #Bias #Infotech #Kredit #Kreditvergabe #KĂĽnstlicheIntelligenz #MachineLearning #Minderheiten #Rauschen #USA
Ohne den sogenannten Credit Score geht im amerikanischen Leben nichts․ Minderheiten werden bei der Erfassung noch immer benachteiligt․ Helfen neue Algorithmen?
#Algorithmen #Bias #Infotech #Kredit #Kreditvergabe #KĂĽnstlicheIntelligenz #MachineLearning #Minderheiten #Rauschen #USA
Ohne den sogenannten Credit Score geht im amerikanischen Leben nichts․ Minderheiten werden bei der Erfassung noch immer benachteiligt․ Helfen neue Algorithmen?
Forscher schlagen Alarm: KI bestimmt Hautfarbe aus Röntgenbildern
#Bias #Infotech #KĂĽnstlicheIntelligenz #synthetischeDaten
Wissenschaftler warnen vor rassistischer Benachteiligung durch medizinische KI․ Helfen synthetische Daten, dieses Problem zu lösen?
#Bias #Infotech #KĂĽnstlicheIntelligenz #synthetischeDaten
Wissenschaftler warnen vor rassistischer Benachteiligung durch medizinische KI․ Helfen synthetische Daten, dieses Problem zu lösen?
Technology Review 6/21: Warum wir KI gerechter und offener gestalten mĂĽssen
#Bias #Diskriminierung #Infotech #KĂĽnstlicheIntelligenz #MachineLearning
KI steuert Dienste und Apps, die wir jeden Tag nutzen – diskriminiert dabei aber und kann sogar Hass schüren․ Forscher auf der ganzen Welt wollen das ändern․
#Bias #Diskriminierung #Infotech #KĂĽnstlicheIntelligenz #MachineLearning
KI steuert Dienste und Apps, die wir jeden Tag nutzen – diskriminiert dabei aber und kann sogar Hass schüren․ Forscher auf der ganzen Welt wollen das ändern․
Warum Entscheidungen nach Tagesform gefährlich sind
#Algorithmen #BauchgefĂĽhl #Bias #Entscheidungen #Intuition #Leben #Wissenschaft
Ob im Gericht, in Schule oder Krankenhaus: Fachleute entscheiden oft nach Bauch․ Ungerecht und teuer, sagt Wirtschaftsnobelpreisträger Daniel Kahneman․
#Algorithmen #BauchgefĂĽhl #Bias #Entscheidungen #Intuition #Leben #Wissenschaft
Ob im Gericht, in Schule oder Krankenhaus: Fachleute entscheiden oft nach Bauch․ Ungerecht und teuer, sagt Wirtschaftsnobelpreisträger Daniel Kahneman․
Wie synthetische Daten dem Datenschutz helfen
#Bias #Datenschutz #Infotech #KĂĽnstlicheIntelligenz #ML #MachineLearning #synthetischeDaten
Synthetische Daten könnten auch eine Rolle dabei spielen, KI datenschutzfreundlicher zu trainieren․ Dazu bedienen sich Experten eines Tricks․
#Bias #Datenschutz #Infotech #KĂĽnstlicheIntelligenz #ML #MachineLearning #synthetischeDaten
Synthetische Daten könnten auch eine Rolle dabei spielen, KI datenschutzfreundlicher zu trainieren․ Dazu bedienen sich Experten eines Tricks․
2021: Das Jahr der KI-Monstermodelle
#Bias #GPT3 #Infotech #KĂĽnstlicheIntelligenz #Sprachmodell #Training
Das Sprachmodell GPT-3 leitete einen neuen Trend zu immer größeren Modellen ein․ Wie groß können sie werden und was handelt man sich damit ein?
#Bias #GPT3 #Infotech #KĂĽnstlicheIntelligenz #Sprachmodell #Training
Das Sprachmodell GPT-3 leitete einen neuen Trend zu immer größeren Modellen ein․ Wie groß können sie werden und was handelt man sich damit ein?
KI im Recruiting: Mist, aber trotzdem im Einsatz
#Bewerber #Bewerbung #Bias #Infotech #KĂĽnstlicheIntelligenz #Qualifikation #Recruiting #Vorurteile
Künstliche Intelligenz soll Zeit sparen und Probleme lösen – zum Beispiel auch im Recruiting․ Das funktioniert aber nur bedingt․
#Bewerber #Bewerbung #Bias #Infotech #KĂĽnstlicheIntelligenz #Qualifikation #Recruiting #Vorurteile
Künstliche Intelligenz soll Zeit sparen und Probleme lösen – zum Beispiel auch im Recruiting․ Das funktioniert aber nur bedingt․
KI-Avatare von Lensa: Viel Hype, viel Sexismus – unsere Autorin hat es getestet
#Bias #Bildgenerator #Diskriminierung #Infotech #KĂĽnstlicheIntelligenz #Lensa #ML #MachineLearning #Sexismus #StableDiffusion
MIT-Technology-Review-Autorin Melissa Heikkilä lud ihr Bild beim Stable-Diffusion-Bildgenerator Lensa hoch․ Heraus kamen oftmals sexualisierte KI-Aufnahmen․
#Bias #Bildgenerator #Diskriminierung #Infotech #KĂĽnstlicheIntelligenz #Lensa #ML #MachineLearning #Sexismus #StableDiffusion
MIT-Technology-Review-Autorin Melissa Heikkilä lud ihr Bild beim Stable-Diffusion-Bildgenerator Lensa hoch․ Heraus kamen oftmals sexualisierte KI-Aufnahmen․
KI-Regulierung: Wie Google und Microsoft Stimmung gegen den AI Act machen
#AIAct #Bias #ChatGPT #EU #GenerativeAI #Google #Infotech #KIRegulierung #KĂĽnstlicheIntelligenz #Lobbyarbeit #Lobbyismus #Microsoft #OpenAI #Transparenz
Das geplante KI-Gesetz könnte Anwendungen wie ChatGPT regulieren․ Die Lobbyisten der Techbranche versuchen sich an Einflussnahme, wie Untersuchungen zeigen․
#AIAct #Bias #ChatGPT #EU #GenerativeAI #Google #Infotech #KIRegulierung #KĂĽnstlicheIntelligenz #Lobbyarbeit #Lobbyismus #Microsoft #OpenAI #Transparenz
Das geplante KI-Gesetz könnte Anwendungen wie ChatGPT regulieren․ Die Lobbyisten der Techbranche versuchen sich an Einflussnahme, wie Untersuchungen zeigen․
KI-Sprachmodelle können Vorurteile selbst korrigieren – wenn man sie bittet
#Bias #Infotech #KĂĽnstlicheIntelligenz #Sprachmodell #Trainingsdaten #Vorurteile
Eine Studie des KI-Labors Anthropic zeigt, wie einfache Anweisungen große Sprachmodelle dazu bringen können, weniger toxische Inhalte zu produzieren․
#Bias #Infotech #KĂĽnstlicheIntelligenz #Sprachmodell #Trainingsdaten #Vorurteile
Eine Studie des KI-Labors Anthropic zeigt, wie einfache Anweisungen große Sprachmodelle dazu bringen können, weniger toxische Inhalte zu produzieren․
Neue Tools zeigen, wie voreingenommen KI-Bildgeneratoren sind
#Bias #DALLE #DallE2 #Infotech #KIBildgenerator #KĂĽnstlicheIntelligenz #OpenAI #StabilityAI #StableDiffusion #Stereotypen #Tools #Vorurteile #midjourney
Voreingenommenheit und Stereotypisierung sind immer noch ein Problem für Systeme wie DALL-E 2 und Stable Diffusion․ Reichen die Bemühungen der Anbieter?
#Bias #DALLE #DallE2 #Infotech #KIBildgenerator #KĂĽnstlicheIntelligenz #OpenAI #StabilityAI #StableDiffusion #Stereotypen #Tools #Vorurteile #midjourney
Voreingenommenheit und Stereotypisierung sind immer noch ein Problem für Systeme wie DALL-E 2 und Stable Diffusion․ Reichen die Bemühungen der Anbieter?
Ă„ngstliche KI wird rassistischer
#Angst #Bias #Emotionen #KĂĽnstlicheIntelligenz #Psychologie #Spracherkennung #Stereotypen
Studie zeigt, Verhalten von großem Sprachmodell ändert sich, wenn die KI zuvor über Angst gesprochen hat․
#Angst #Bias #Emotionen #KĂĽnstlicheIntelligenz #Psychologie #Spracherkennung #Stereotypen
Studie zeigt, Verhalten von großem Sprachmodell ändert sich, wenn die KI zuvor über Angst gesprochen hat․
Ein Algorithmus, der Armut bekämpfen soll, disqualifiziert​ bedürftige Menschen
#Algorithmus #Bias #Geschlecht #Infotech #Jordanien #KĂĽnstlicheIntelligenz #Rasse #Sozialleistungen #Vorurteile #Weltbank
Human Rights Watch zufolge bestimmt das Weltbank-finanzierte System zur Verteilung von Sozialleistungen in Jordanien ungenau und ungerecht, wie arm man ist․
#Algorithmus #Bias #Geschlecht #Infotech #Jordanien #KĂĽnstlicheIntelligenz #Rasse #Sozialleistungen #Vorurteile #Weltbank
Human Rights Watch zufolge bestimmt das Weltbank-finanzierte System zur Verteilung von Sozialleistungen in Jordanien ungenau und ungerecht, wie arm man ist․
Outsourcing: Gigworker, die KI trainieren helfen, lassen sich von KI helfen
#AmazonMechanicalTurk #Bias #ChatGPT #Daten #EPFL #Gigworker #Infotech #KĂĽnstlicheIntelligenz #Verzerrung #crowdsourcing
Gigworker stehen oft unter Druck und sind schlecht bezahlt․ Setzen sie aber auf KI, könnte das zu weiteren Verzerrungen in ohnehin fehleranfälligen KIs führen․​
#AmazonMechanicalTurk #Bias #ChatGPT #Daten #EPFL #Gigworker #Infotech #KĂĽnstlicheIntelligenz #Verzerrung #crowdsourcing
Gigworker stehen oft unter Druck und sind schlecht bezahlt․ Setzen sie aber auf KI, könnte das zu weiteren Verzerrungen in ohnehin fehleranfälligen KIs führen․​
Studie prĂĽft, welche KI-Modelle eher links- oder rechtslastige Antworten geben
#Bias #ChatGPT #Facebook #Infotech #KĂĽnstlicheIntelligenz #Llama #Spracherkennung #Vorurteile
Forschungsergebnisse zeigen, dass Nutzer mehr rechts- oder linksgerichtete Antworten erhalten, je nachdem, welches KI-Modell sie fragen․
#Bias #ChatGPT #Facebook #Infotech #KĂĽnstlicheIntelligenz #Llama #Spracherkennung #Vorurteile
Forschungsergebnisse zeigen, dass Nutzer mehr rechts- oder linksgerichtete Antworten erhalten, je nachdem, welches KI-Modell sie fragen․