Technology Review
110 subscribers
3.68K links
Hier werden alle Nachrichten aus dem RSS-News-Feed von Technology Review gepostet. 🤓

Mehr News đź“°
@DerNewsChannel

Bei Fragen und Problemen 🤔
@DerNewsChat
Download Telegram
KI könnte die Gesundheitsversorgung gerechter machen
#Arthrose #Bias #Diagnostik #KünstlicheIntelligenz #Leben #Medizin #Röntgen #Schwarze #Ungleichheit

Ein genaueres Training von Deep-Learning-Modellen könnte die Bewertung von Schmerzen verbessern und Ärzten helfen, Patienten mehr zu glauben․
Predictive Policing: Studien sehen weiterhin Rassismus
#Bias #Infotech #Polizei #PredictivePolicing #Rassismus #Strafverfolgung #USA

Wenn Behörden Algorithmen zur Strafverfolgung nutzen, dürfen diese keinen Bias haben․ Doch dem ist noch immer nicht so, wie Forscher in den USA demonstrieren․
Wie eingebautes Misstrauen KI-Systeme sicherer machen kann
#Bias #Infotech #KĂĽnstlicheIntelligenz #MachineLearning #Misstrauen #Vertrauen #Vorurteile

Ayanna Howard, Robotikerin und Pädagogin, hält es für gefährlich, automatisierten Systemen zu vertrauen․ Im TR-Interview erläutert sie Lösungsmöglichkeiten․
Kreditwürdigkeit in den USA: Wie KI gegen Voreingenommenheit helfen könnte
#Algorithmen #Bias #Infotech #Kredit #Kreditvergabe #KĂĽnstlicheIntelligenz #MachineLearning #Minderheiten #Rauschen #USA

Ohne den sogenannten Credit Score geht im amerikanischen Leben nichts․ Minderheiten werden bei der Erfassung noch immer benachteiligt․ Helfen neue Algorithmen?
Forscher schlagen Alarm: KI bestimmt Hautfarbe aus Röntgenbildern
#Bias #Infotech #KĂĽnstlicheIntelligenz #synthetischeDaten

Wissenschaftler warnen vor rassistischer Benachteiligung durch medizinische KI․ Helfen synthetische Daten, dieses Problem zu lösen?
Technology Review 6/21: Warum wir KI gerechter und offener gestalten mĂĽssen
#Bias #Diskriminierung #Infotech #KĂĽnstlicheIntelligenz #MachineLearning

KI steuert Dienste und Apps, die wir jeden Tag nutzen – diskriminiert dabei aber und kann sogar Hass schüren․ Forscher auf der ganzen Welt wollen das ändern․
Warum Entscheidungen nach Tagesform gefährlich sind
#Algorithmen #BauchgefĂĽhl #Bias #Entscheidungen #Intuition #Leben #Wissenschaft

Ob im Gericht, in Schule oder Krankenhaus: Fachleute entscheiden oft nach Bauch․ Ungerecht und teuer, sagt Wirtschaftsnobelpreisträger Daniel Kahneman․
Wie synthetische Daten dem Datenschutz helfen
#Bias #Datenschutz #Infotech #KĂĽnstlicheIntelligenz #ML #MachineLearning #synthetischeDaten

Synthetische Daten könnten auch eine Rolle dabei spielen, KI datenschutzfreundlicher zu trainieren․ Dazu bedienen sich Experten eines Tricks․
2021: Das Jahr der KI-Monstermodelle
#Bias #GPT3 #Infotech #KĂĽnstlicheIntelligenz #Sprachmodell #Training

Das Sprachmodell GPT-3 leitete einen neuen Trend zu immer größeren Modellen ein․ Wie groß können sie werden und was handelt man sich damit ein?
KI im Recruiting: Mist, aber trotzdem im Einsatz
#Bewerber #Bewerbung #Bias #Infotech #KĂĽnstlicheIntelligenz #Qualifikation #Recruiting #Vorurteile

Künstliche Intelligenz soll Zeit sparen und Probleme lösen – zum Beispiel auch im Recruiting․ Das funktioniert aber nur bedingt․
KI-Avatare von Lensa: Viel Hype, viel Sexismus – unsere Autorin hat es getestet
#Bias #Bildgenerator #Diskriminierung #Infotech #KĂĽnstlicheIntelligenz #Lensa #ML #MachineLearning #Sexismus #StableDiffusion

MIT-Technology-Review-Autorin Melissa Heikkilä lud ihr Bild beim Stable-Diffusion-Bildgenerator Lensa hoch․ Heraus kamen oftmals sexualisierte KI-Aufnahmen․
KI-Regulierung: Wie Google und Microsoft Stimmung gegen den AI Act machen
#AIAct #Bias #ChatGPT #EU #GenerativeAI #Google #Infotech #KIRegulierung #KĂĽnstlicheIntelligenz #Lobbyarbeit #Lobbyismus #Microsoft #OpenAI #Transparenz

Das geplante KI-Gesetz könnte Anwendungen wie ChatGPT regulieren․ Die Lobbyisten der Techbranche versuchen sich an Einflussnahme, wie Untersuchungen zeigen․
KI-Sprachmodelle können Vorurteile selbst korrigieren – wenn man sie bittet
#Bias #Infotech #KĂĽnstlicheIntelligenz #Sprachmodell #Trainingsdaten #Vorurteile

Eine Studie des KI-Labors Anthropic zeigt, wie einfache Anweisungen große Sprachmodelle dazu bringen können, weniger toxische Inhalte zu produzieren․
Neue Tools zeigen, wie voreingenommen KI-Bildgeneratoren sind
#Bias #DALLE #DallE2 #Infotech #KIBildgenerator #KĂĽnstlicheIntelligenz #OpenAI #StabilityAI #StableDiffusion #Stereotypen #Tools #Vorurteile #midjourney

Voreingenommenheit und Stereotypisierung sind immer noch ein Problem für Systeme wie DALL-E 2 und Stable Diffusion․ Reichen die Bemühungen der Anbieter?
Ă„ngstliche KI wird rassistischer
#Angst #Bias #Emotionen #KĂĽnstlicheIntelligenz #Psychologie #Spracherkennung #Stereotypen

Studie zeigt, Verhalten von großem Sprachmodell ändert sich, wenn die KI zuvor über Angst gesprochen hat․
Ein Algorithmus, der Armut bekämpfen soll, disqualifiziert​ bedürftige Menschen
#Algorithmus #Bias #Geschlecht #Infotech #Jordanien #KĂĽnstlicheIntelligenz #Rasse #Sozialleistungen #Vorurteile #Weltbank

Human Rights Watch zufolge bestimmt das Weltbank-finanzierte System zur Verteilung von Sozialleistungen in Jordanien ungenau und ungerecht, wie arm man ist․
Outsourcing: Gigworker, die KI trainieren helfen, lassen sich von KI helfen
#AmazonMechanicalTurk #Bias #ChatGPT #Daten #EPFL #Gigworker #Infotech #KĂĽnstlicheIntelligenz #Verzerrung #crowdsourcing

Gigworker stehen oft unter Druck und sind schlecht bezahlt․ Setzen sie aber auf KI, könnte das zu weiteren Verzerrungen in ohnehin fehleranfälligen KIs führen․​
Studie prĂĽft, welche KI-Modelle eher links- oder rechtslastige Antworten geben
#Bias #ChatGPT #Facebook #Infotech #KĂĽnstlicheIntelligenz #Llama #Spracherkennung #Vorurteile

Forschungsergebnisse zeigen, dass Nutzer mehr rechts- oder linksgerichtete Antworten erhalten, je nachdem, welches KI-Modell sie fragen․