heise online Ticker
235 subscribers
72.7K links
News rund um IT und darüber hinaus

Powered by @DerNewsChannel
Download Telegram
Google Dunant: Unterseekabel mit 250 Tbit/s
#CloudComputing #Dunant #GCP #Google #GoogleCloud #GraceHopper #Unterseekabel

Google nimmt sein Unterseekabel Dunant offiziell in Betrieb․ Von der hohen Datenübertragungsrate sollen Nutzer der eigenen Cloud-Dienste profitieren․
Lovelace, Hopper, Hamilton & Co․: Wie kluge Frauen die Tech-Welt beeinfluss(t)en
#AdaLovelace #Diversität #Erfindungen #Frauen #FraueninderIT #Geschlechterdifferenz #GraceHopper #ITGeschichte #Informatik #NASA #Technik #Weltfrauentag

Die IT ist eine Männerdomäne, zu der von Anbeginn auch Frauen wichtige Beiträge geleistet haben․ Wir holen einige Beispiele aus dem Schatten ins Rampenlicht․
Computex: Nvidia kündigt erste Server mit der eigenen Grace-ARM-CPU an
#A100 #ARM #Computex #Grace #GraceHopper #Grafikchip #Grafikkarten #Nvidia #NvidiaH100 #Prozessoren #Rechenzentrum #Server #Wasserkühlung

Im Rahmen der Computex hat Nvidia erste Server mit dem ARM-Prozessor Grace in Aussicht gestellt․ Fürs Rechenzentrum kommen außerdem wassergekühlte GPUs․
heise+ | Grace Hopper: So funktioniert Nvidias ARM-Superchip für KI
#GraceHopper #GraceHopperChip #KünstlicheIntelligenz #Superchip #Supercomputer

Der Grace-Hopper-Chip vereint CPU und GPU auf einem Modul und verspricht energieeffizientes Hochleistungscomputing․ Basis ist Nvdias erster ARM-Prozessor Grace․
Nvidia GH200: Grade Hopper bekommt ein HBM3e-Upgrade
#Grace #GraceHopper #Grafikchip #HBM3e #Hopper #KünstlicheIntelligenz #Nvidia #SIGGRAPH #SIGGRAPH2023

Nvidia legt die dritte Variante seiner H100-GPU auf․ Im GH200-Superchip erhält sie 141 GByte HBM3e-Speicher und einen Boost auf 5 TByte/s․
Amazon setzt in der Cloud auf Nvidias neue Superchips und neue eigene ARM-Chips
#ARM #Amazon #AmazonWebServices #CloudComputing #GraceHopper #KünstlicheIntelligenz #LLM #Nvidia #Prozessoren #Server

Neben Nvidias "Grace Hopper" wird AWS auch die weiterentwickelten 'Graviton4' für die Cloud und 'Trainium2' für Workloads Künstlicher Intelligenz verwenden․