KI-Regulierung: Wie Google und Microsoft Stimmung gegen den AI Act machen
#AIAct #Bias #ChatGPT #EU #GenerativeAI #Google #Infotech #KIRegulierung #KünstlicheIntelligenz #Lobbyarbeit #Lobbyismus #Microsoft #OpenAI #Transparenz
Das geplante KI-Gesetz könnte Anwendungen wie ChatGPT regulieren․ Die Lobbyisten der Techbranche versuchen sich an Einflussnahme, wie Untersuchungen zeigen․
#AIAct #Bias #ChatGPT #EU #GenerativeAI #Google #Infotech #KIRegulierung #KünstlicheIntelligenz #Lobbyarbeit #Lobbyismus #Microsoft #OpenAI #Transparenz
Das geplante KI-Gesetz könnte Anwendungen wie ChatGPT regulieren․ Die Lobbyisten der Techbranche versuchen sich an Einflussnahme, wie Untersuchungen zeigen․
March 1, 2023
Transparenzregister soll staatliche KI-Desaster verhindern
#AlgorithmWatch #AutomatedDecisionMaking #Bias #Diskriminierung #GenderBias #KITransparenzregister #KünstlicheIntelligenz #Transparenz #öffentlicheVerwaltung
Falsch konfigurierte automatisierte Entscheidungsverfahren können in Ämtern böse Folgen für Hilfsbedürftige haben․ Grüne und SPD drängen auf ein Verzeichnis․
#AlgorithmWatch #AutomatedDecisionMaking #Bias #Diskriminierung #GenderBias #KITransparenzregister #KünstlicheIntelligenz #Transparenz #öffentlicheVerwaltung
Falsch konfigurierte automatisierte Entscheidungsverfahren können in Ämtern böse Folgen für Hilfsbedürftige haben․ Grüne und SPD drängen auf ein Verzeichnis․
March 3, 2023
KI-Sprachmodelle können Vorurteile selbst korrigieren – wenn man sie bittet
#Bias #Infotech #KünstlicheIntelligenz #Sprachmodell #Trainingsdaten #Vorurteile
Eine Studie des KI-Labors Anthropic zeigt, wie einfache Anweisungen große Sprachmodelle dazu bringen können, weniger toxische Inhalte zu produzieren․
#Bias #Infotech #KünstlicheIntelligenz #Sprachmodell #Trainingsdaten #Vorurteile
Eine Studie des KI-Labors Anthropic zeigt, wie einfache Anweisungen große Sprachmodelle dazu bringen können, weniger toxische Inhalte zu produzieren․
March 27, 2023
Neue Tools zeigen, wie voreingenommen KI-Bildgeneratoren sind
#Bias #DALLE #DallE2 #Infotech #KIBildgenerator #KünstlicheIntelligenz #OpenAI #StabilityAI #StableDiffusion #Stereotypen #Tools #Vorurteile #midjourney
Voreingenommenheit und Stereotypisierung sind immer noch ein Problem für Systeme wie DALL-E 2 und Stable Diffusion․ Reichen die Bemühungen der Anbieter?
#Bias #DALLE #DallE2 #Infotech #KIBildgenerator #KünstlicheIntelligenz #OpenAI #StabilityAI #StableDiffusion #Stereotypen #Tools #Vorurteile #midjourney
Voreingenommenheit und Stereotypisierung sind immer noch ein Problem für Systeme wie DALL-E 2 und Stable Diffusion․ Reichen die Bemühungen der Anbieter?
March 29, 2023
Zuverlässige KI: Absicherung künstlicher neuronaler Netze
#Bias #FakeNews #Falschinformationen #GenderBias #KünstlicheIntelligenz #MachineLearning #Zuverlässigkeit
Wie zuverlässig eine KI-Anwendung ist, lässt sich messen․ Das ist oft mathematisch komplex, hat aber enorme praktische Bedeutung․
#Bias #FakeNews #Falschinformationen #GenderBias #KünstlicheIntelligenz #MachineLearning #Zuverlässigkeit
Wie zuverlässig eine KI-Anwendung ist, lässt sich messen․ Das ist oft mathematisch komplex, hat aber enorme praktische Bedeutung․
April 18, 2023
Ängstliche KI wird rassistischer
#Angst #Bias #Emotionen #KünstlicheIntelligenz #Psychologie #Spracherkennung #Stereotypen
Studie zeigt, Verhalten von großem Sprachmodell ändert sich, wenn die KI zuvor über Angst gesprochen hat․
#Angst #Bias #Emotionen #KünstlicheIntelligenz #Psychologie #Spracherkennung #Stereotypen
Studie zeigt, Verhalten von großem Sprachmodell ändert sich, wenn die KI zuvor über Angst gesprochen hat․
May 3, 2023
Ein Algorithmus, der Armut bekämpfen soll, disqualifiziert bedürftige Menschen
#Algorithmus #Bias #Geschlecht #Infotech #Jordanien #KünstlicheIntelligenz #Rasse #Sozialleistungen #Vorurteile #Weltbank
Human Rights Watch zufolge bestimmt das Weltbank-finanzierte System zur Verteilung von Sozialleistungen in Jordanien ungenau und ungerecht, wie arm man ist․
#Algorithmus #Bias #Geschlecht #Infotech #Jordanien #KünstlicheIntelligenz #Rasse #Sozialleistungen #Vorurteile #Weltbank
Human Rights Watch zufolge bestimmt das Weltbank-finanzierte System zur Verteilung von Sozialleistungen in Jordanien ungenau und ungerecht, wie arm man ist․
June 20, 2023
Drei Fragen und Antworten: Bei KI kann es keine komplette Fairness geben
#AIAct #Bias #Datenschutz #KünstlicheIntelligenz #ML #MachineLearning #Trainingsdaten #Versicherung
Fairness klingt nach einem weichen Konzept, lässt sich aber technisch umsetzen․ Warum KI dabei nicht alle Menschen in Watte packen kann, klärt iX im Interview․
#AIAct #Bias #Datenschutz #KünstlicheIntelligenz #ML #MachineLearning #Trainingsdaten #Versicherung
Fairness klingt nach einem weichen Konzept, lässt sich aber technisch umsetzen․ Warum KI dabei nicht alle Menschen in Watte packen kann, klärt iX im Interview․
June 24, 2023
Outsourcing: Gigworker, die KI trainieren helfen, lassen sich von KI helfen
#AmazonMechanicalTurk #Bias #ChatGPT #Daten #EPFL #Gigworker #Infotech #KünstlicheIntelligenz #Verzerrung #crowdsourcing
Gigworker stehen oft unter Druck und sind schlecht bezahlt․ Setzen sie aber auf KI, könnte das zu weiteren Verzerrungen in ohnehin fehleranfälligen KIs führen․
#AmazonMechanicalTurk #Bias #ChatGPT #Daten #EPFL #Gigworker #Infotech #KünstlicheIntelligenz #Verzerrung #crowdsourcing
Gigworker stehen oft unter Druck und sind schlecht bezahlt․ Setzen sie aber auf KI, könnte das zu weiteren Verzerrungen in ohnehin fehleranfälligen KIs führen․
June 27, 2023
Studie prüft, welche KI-Modelle eher links- oder rechtslastige Antworten geben
#Bias #ChatGPT #Facebook #Infotech #KünstlicheIntelligenz #Llama #Spracherkennung #Vorurteile
Forschungsergebnisse zeigen, dass Nutzer mehr rechts- oder linksgerichtete Antworten erhalten, je nachdem, welches KI-Modell sie fragen․
#Bias #ChatGPT #Facebook #Infotech #KünstlicheIntelligenz #Llama #Spracherkennung #Vorurteile
Forschungsergebnisse zeigen, dass Nutzer mehr rechts- oder linksgerichtete Antworten erhalten, je nachdem, welches KI-Modell sie fragen․
August 10, 2023
Internet Summit Austria: "Künstliche Intelligenz ist ein unglücklicher Begriff"
#AI #Algorithmen #Bias #CarinaZehetmaier #DigitalerGraben #Ethik #ISPA #InternetSummitAustria #KünstlicheIntelligenz #Taxtastic #Verantwortung #Voreingenommenheit #Vorurteile #Österreich
Der Umgang mit KI war Thema das Internet Summit Austria 2023․ Dabei ist schon der Begriff Künstliche Intelligenz unklar und umfehdet․
#AI #Algorithmen #Bias #CarinaZehetmaier #DigitalerGraben #Ethik #ISPA #InternetSummitAustria #KünstlicheIntelligenz #Taxtastic #Verantwortung #Voreingenommenheit #Vorurteile #Österreich
Der Umgang mit KI war Thema das Internet Summit Austria 2023․ Dabei ist schon der Begriff Künstliche Intelligenz unklar und umfehdet․
September 29, 2023
KI-Update Deep-Dive: Wie der AI Act die Menschenrechte schützen kann
#AIAct #AmnestyInternational #Bias #KIupdate #KünstlicheIntelligenz #Menschenrechte
KI beeinflusst unser Leben, mal offensichtlich, mal versteckt․ Wie transparent damit in der EU umgegangen wird, wird auch vom AI-Act abhängen․
#AIAct #AmnestyInternational #Bias #KIupdate #KünstlicheIntelligenz #Menschenrechte
KI beeinflusst unser Leben, mal offensichtlich, mal versteckt․ Wie transparent damit in der EU umgegangen wird, wird auch vom AI-Act abhängen․
November 17, 2023