Trends: Rohöl | Gold | BITCOIN | EUR/USD | GBP/USD

Der Euro versucht sich zu erholen – die Augen ruhen auf Christine Lagarde.

Economies.com
2025-11-24 06:00AM UTC

Der Euro legte am Montag im europäischen Handel gegenüber einem Währungskorb wichtiger Währungen zu und versuchte, sich von einem Zweiwochentief gegenüber dem US-Dollar zu erholen. Unterstützt wurde dies durch Schnäppchenkäufe auf niedrigeren Niveaus und eine Pause im jüngsten Anstieg des Dollars vor wichtigen US-Inflationsdaten.

Da weiterhin Unsicherheit darüber herrscht, ob die Europäische Zentralbank im Dezember den Leitzins senken wird, warten die Anleger gespannt auf eine Rede von EZB-Präsidentin Christine Lagarde im Laufe des Tages, von der sie sich neue Hinweise auf den geldpolitischen Kurs der Eurozone erhofft.

Preisübersicht

• EUR/USD stieg um 0,15 % auf 1,1528 $, ausgehend von einem Eröffnungsniveau von 1,1511 $, nachdem es im Tagesverlauf ein Tief von 1,1502 $ erreicht hatte.

• Der Euro beendete den Freitagshandel mit einem Minus von 0,15 % gegenüber dem Dollar. Dies war der sechste tägliche Verlust in Folge und ein Zweiwochentief bei 1,1491 $, belastet durch schwache Industrie- und Dienstleistungsdaten in ganz Europa.

• Im Wochenvergleich fiel der Euro um 0,95 % – der größte wöchentliche Rückgang seit Ende Juli –, da sich die Anleger im aktuellen Umfeld auf den Kauf des US-Dollars als attraktivste Anlage konzentrierten.

US-Dollar

Der Dollar-Index gab am Montag um 0,1 % nach und fiel damit von seinem Sechsmonatshoch bei 100,40 zurück, was eine Pause im Aufwärtstrend der amerikanischen Währung widerspiegelt.

Abgesehen von Gewinnmitnahmen zögern Anleger, vor der Veröffentlichung wichtiger US-Inflationsdaten neue Long-Positionen aufzubauen. Von diesen Daten wird erwartet, dass sie deutlichere Hinweise darauf liefern, ob die Federal Reserve die Zinssätze im Dezember unverändert lassen wird.

Europäische Tarife

• Die Marktpreise spiegeln derzeit eine Wahrscheinlichkeit von rund 25 % für eine Zinssenkung der EZB um 25 Basispunkte im Dezember wider.

• Die Anleger warten auf weitere Daten aus der Eurozone zu Inflation, Arbeitslosigkeit und Löhnen, um ihre Erwartungen neu zu bewerten.

• EZB-Präsidentin Christine Lagarde wird im Laufe des Tages eine wichtige Rede halten, in der es voraussichtlich um die jüngsten Entwicklungen bei der Inflation und die Aussichten für die europäischen Zinssätze gehen wird.

Ausblick für den Euro

• Laut Economies.com: Wenn Lagardes Äußerungen weniger restriktiv klingen, würden sich die Erwartungen an eine Zinssenkung der EZB im Dezember verstärken, was den Euro gegenüber einem Währungskorb zusätzlich unter Druck setzen würde.

Der Yen verliert aufgrund von Takaichis Konjunkturprogrammen weiter an Wert.

Economies.com
2025-11-24 05:15AM UTC

Der japanische Yen gab am Montag im asiatischen Handel gegenüber einem Währungskorb wichtiger und weniger wichtiger Währungen nach und setzte seinen Abwärtstrend nach einer kurzen Pause am Vortag gegenüber dem US-Dollar fort. Er bewegte sich erneut in Richtung seines niedrigsten Standes seit zehn Monaten. Die Währung steht weiterhin unter deutlichem Druck aufgrund anhaltender Bedenken hinsichtlich der umfangreichen Konjunkturprogramme von Premierministerin Sanae Takaichi.

Gleichzeitig sehen Analysten wenig Chancen für direkte Interventionen zur Stützung des Yen, bevor dieser die Marke von 160 Yen pro Dollar erreicht. Investoren warten zudem auf weitere Hinweise zum Kurs der Bank of Japan hinsichtlich einer geldpolitischen Normalisierung und potenzieller Zinserhöhungen.

Preisübersicht

• USD/JPY stieg um etwa 0,3 % auf 156,80¥ von einem Eröffnungsniveau von 156,37¥, nachdem es im Tagesverlauf ein Tief von 156,37¥ erreicht hatte.

• Der Yen beendete die Sitzung am Freitag mit einem Plus von 0,7 % gegenüber dem Dollar – dem ersten Anstieg seit sechs Tagen –, unterstützt durch Schnäppchenkäufe, nachdem er am Vortag ein Zehnmonatstief von 157,89 erreicht hatte.

• Die Währung verlor letzte Woche 1,2 % und verzeichnete damit den zweiten wöchentlichen Rückgang in Folge, belastet durch Takaichis Konjunkturpaket.

Takaichis Konjunkturprogramme

Das japanische Kabinett unter Führung von Sanae Takaichi hat Ende letzter Woche ein Konjunkturpaket in Höhe von 21 Billionen Yen (135 Milliarden US-Dollar) verabschiedet – die erste größere politische Initiative der Regierung. Das Programm spiegelt ihren expansiven fiskalpolitischen Kurs wider, der die schwächelnde japanische Wirtschaft ankurbeln soll.

Das Paket umfasst Ausgaben in Höhe von 17,7 Billionen Yen aus dem allgemeinen Haushalt und übertrifft damit die 13,9 Billionen Yen des Vorjahres deutlich. Es ist das größte Konjunkturprogramm seit Beginn der COVID-19-Pandemie. Zudem sind Steuersenkungen in Höhe von 2,7 Billionen Yen vorgesehen. Die Regierung plant, am 28. November einen Nachtragshaushalt zu verabschieden, um die Zustimmung des Parlaments noch vor Jahresende zu erhalten.

Ansichten und Analysen

• Christopher Wong, Devisenstratege bei OCBC, sagte, dass eine Intervention nicht ausgeschlossen sei, bevor der USD/JPY die Marke von 160 erreicht, und fügte hinzu, dass jede Bewegung angesichts der geringen Liquiditätslage heftig ausfallen könnte.

• Michael Boutros, Chefstratege bei StoneX, wies auf ein anhaltendes Tauziehen zwischen der Bank von Japan und dem neuen Premierminister hin, der „sehr wirtschaftsfreundlich ist und möchte, dass die Märkte weiterhin sehr komfortabel bleiben“.

• Boutros fügte hinzu: „Ich glaube nicht, dass sie die Zinssätze in absehbarer Zeit ändern werden. Was wir stattdessen sehen werden, sind wahrscheinlich Gespräche über Interventionen und weitere Warnungen, solange diese Entwicklungen anhalten.“

Japanische Zinssätze

• Derzeit preist der Markt eine Wahrscheinlichkeit von rund 35 % für eine Zinserhöhung der Bank von Japan um 25 Basispunkte im Dezember ein.

• Um diese Wahrscheinlichkeiten neu zu bewerten, beobachten die Anleger die anstehenden Daten zur Inflation, Arbeitslosigkeit und zum Lohnwachstum in Japan.

Ethereum stürzt diese Woche um über 13 % ab.

Economies.com
2025-11-21 21:13PM UTC

Die Kurse von Kryptowährungen gaben am Freitag durchweg nach und setzten damit die starken Verluste fort, die sie weit unter ihre jüngsten Höchststände gedrückt haben. Bitcoin rutschte unter die Marke von 82.000 Dollar.

Der Rückgang erfolgt inmitten widersprüchlicher Erwartungen hinsichtlich der Geldpolitik der US-Notenbank. Der jüngste US-Arbeitsmarktbericht dämpfte die Hoffnungen auf eine Zinssenkung im Dezember, doch diese Erwartungen flammten heute nach Äußerungen eines hochrangigen Fed-Vertreters wieder auf.

John Williams, Präsident der New Yorker Federal Reserve, sagte am Freitag, er erwarte, dass die Zentralbank einen größeren Spielraum für Zinssenkungen haben werde.

Der einflussreiche politische Entscheidungsträger erklärte in einer Rede in Chile, dass er die Risiken für den Arbeitsmarkt als größer einschätzt als die mit der Inflation verbundenen Risiken – und stimmte damit den Ansichten der eher taubenhaften Mitglieder des FOMC zu.

Williams fügte hinzu: „Ich sehe die Geldpolitik weiterhin als moderat restriktiv an, wenn auch weniger als vor unseren jüngsten Maßnahmen. Daher sehe ich weiterhin Spielraum für eine zusätzliche kurzfristige Anpassung des Zielkorridors für den Leitzins, um die Geldpolitik in Richtung neutraler Politik zu bewegen und das Gleichgewicht zwischen unseren beiden Zielen zu wahren.“

Laut dem CME FedWatch-Tool ist die Wahrscheinlichkeit einer Zinssenkung um 25 Basispunkte bei der Dezember-Sitzung auf 75 % gestiegen, gegenüber 39 % am Vortag und 44,4 % vor einer Woche.

Die heute veröffentlichten Regierungsdaten zeigen, dass der US-Einkaufsmanagerindex für das verarbeitende Gewerbe im November von 52,5 auf 51,9 gesunken ist und damit nahe an den Erwartungen von 52 liegt.

Der Dienstleistungs-PMI stieg unterdessen in diesem Monat von 54,8 auf 55 und widersprach damit den Prognosen, die einen Rückgang auf 54,6 erwartet hatten.

Die Verbraucherstimmungsumfrage der Universität Michigan verbesserte sich ebenfalls und stieg von 50,3 auf 51, womit die Erwartungen von 50,6 übertroffen wurden.

Ethereum

Im Handel fiel Ethereum bis 21:11 Uhr GMT um 3,7 % auf 2.739,9 US-Dollar, womit sich die Verluste in dieser Woche auf 13,2 % summierten.

Nvidia thront an der Spitze der KI-Chip-Welt… aber wer kann aufholen?

Economies.com
2025-11-21 17:59PM UTC

Nvidia übertraf am Mittwoch alle Erwartungen und meldete einen rasanten Gewinnanstieg, der auf die herausragenden Grafikprozessoren (GPUs) zurückzuführen ist, die sich besonders für KI-Anwendungen eignen. Doch auch andere Klassen von KI-Chips gewinnen zunehmend an Bedeutung.

Alle großen Cloud-Anbieter entwickeln mittlerweile eigene anwendungsspezifische integrierte Schaltungen (ASICs), von Googles TPU über Amazons Trainium bis hin zu OpenAIs Plänen mit Broadcom. Diese Chips sind kleiner, günstiger, benutzerfreundlicher und könnten die Abhängigkeit dieser Unternehmen von Nvidias GPUs verringern. Daniel Newman von der Futurum Group erklärte gegenüber CNBC, er erwarte, dass ASIC-Chips „in den nächsten Jahren schneller wachsen werden als der GPU-Markt“.

Neben GPUs und ASICs gibt es feldprogrammierbare Gate-Arrays (FPGAs), die nach der Herstellung für Anwendungen wie Signalverarbeitung, Netzwerktechnik und KI rekonfiguriert werden können. Zudem existiert eine ganze Generation von KI-Chips, die direkt auf Endgeräten und nicht über die Cloud laufen – ein Segment, das von Unternehmen wie Qualcomm und Apple angeführt wird.

CNBC sprach mit Experten und Insidern großer Technologieunternehmen, um diese unübersichtliche Landschaft und die verschiedenen Arten von KI-Chips zu beleuchten.

GPUs für allgemeine Rechenaufgaben

GPUs wurden einst hauptsächlich für Videospiele verwendet, doch sie machten Nvidia zum wertvollsten börsennotierten Unternehmen der Welt, als sie zum Motor moderner KI wurden. Nvidia lieferte im vergangenen Jahr rund 6 Millionen Einheiten seiner aktuellen „Blackwell“-GPU-Generation aus.

Der Wandel von der Spieleentwicklung hin zur KI begann 2012, als Forscher das neuronale Netzwerk AlexNet mithilfe von Nvidia-GPUs trainierten – ein Durchbruch, der von vielen als Auslöser der modernen KI-Revolution angesehen wird. AlexNet nahm an einem hochkarätigen Bilderkennungswettbewerb teil und nutzte GPUs anstelle von CPUs, was zu einer beeindruckenden Genauigkeit und einem entscheidenden Wettbewerbsvorteil führte.

Die gleiche Fähigkeit zur Parallelverarbeitung, die GPUs in die Lage versetzt, realistische Grafiken zu rendern, macht sie auch ideal für das Training von Deep-Learning-Modellen, die aus Daten und nicht durch explizite Programmierung lernen.

Heutzutage werden GPUs in Rechenzentrumssystemen zusammen mit CPUs eingesetzt, um cloudbasierte KI-Workloads auszuführen. CPUs verfügen über wenige leistungsstarke Kerne für sequentielle Aufgaben, während GPUs Tausende kleinerer Kerne besitzen, die auf parallele Operationen wie die Matrixmultiplikation spezialisiert sind.

Da GPUs eine enorme Anzahl von Operationen gleichzeitig ausführen können, eignen sie sich ideal sowohl für das Training als auch für die Inferenz. Beim Training lernen KI-Modelle, Muster in riesigen Datensätzen zu erkennen; bei der Inferenz werden diese Modelle genutzt, um auf Basis neuer Informationen Entscheidungen zu treffen.

GPUs bleiben der wichtigste Motor für Nvidia und seinen engsten Konkurrenten AMD. Die Software ist ein entscheidender Unterschied zwischen den beiden Unternehmen: Nvidia setzt auf sein CUDA-Ökosystem, während AMD einen weitgehend Open-Source-Stack bietet.

Beide Unternehmen verkaufen Cloud-GPUs an Anbieter wie Amazon, Microsoft, Google, Oracle und CoreWeave, die die Rechenleistung dann an KI-Entwickler vermieten.

Der 30-Milliarden-Dollar-Vertrag von Anthropologie mit Nvidia und Microsoft umfasst beispielsweise eine Rechenleistung von umgerechnet 1 Gigawatt, basierend auf Nvidia-Hardware. Auch AMD konnte kürzlich bedeutende Zusagen von OpenAI und Oracle erhalten.

Nvidia verkauft auch direkt an Regierungen und KI-Unternehmen – darunter mindestens 4 Millionen GPUs an OpenAI – sowie an ausländische Regierungen wie Südkorea, Saudi-Arabien und Großbritannien.

Das Unternehmen teilte CNBC mit, dass es für einen Serverschrank mit 72 Blackwell-GPUs rund 3 Millionen Dollar verlangt und wöchentlich etwa 1.000 solcher Schränke ausliefert.

Dion Harris, Senior Director für KI-Infrastruktur bei Nvidia, sagte, er hätte sich nie vorstellen können, dass die Nachfrage ein solches Ausmaß annehmen würde. „Als wir vor Jahren mit Unternehmen über ein System mit acht GPUs sprachen, hielten sie das für übertrieben.“

ASICs für spezialisierte Cloud-KI

GPU-basiertes Training ermöglichte die erste Welle großer Sprachmodelle, doch mit zunehmender Reife der Modelle hat die Inferenz immer mehr an Bedeutung gewonnen. Inferenz kann auf weniger flexiblen, kostengünstigeren Chips durchgeführt werden, die speziell für bestimmte mathematische Operationen entwickelt wurden – hier kommen ASICs ins Spiel.

Wenn eine GPU ein „Schweizer Taschenmesser“ ist, das viele verschiedene parallele Aufgaben ausführen kann, ist ein ASIC ein Werkzeug für einen einzigen Zweck – extrem schnell und effizient, aber nach der Herstellung auf eine einzige Art von Operation beschränkt.

„Diese Chips lassen sich nicht mehr verändern, sobald sie in Silizium geätzt sind“, sagte Chris Miller, Autor von *Chip War*. „Es gibt einen Zielkonflikt zwischen Effizienz und Flexibilität.“

Die GPUs von Nvidia sind vielseitig genug, um unzählige KI-Anforderungen zu erfüllen, aber sie sind teuer (bis zu 40.000 US-Dollar pro Einheit) und schwer zu beschaffen. Startups sind unter anderem deshalb auf sie angewiesen, weil die Entwicklung eines kundenspezifischen ASICs mehrere zehn Millionen US-Dollar kosten kann.

Die Cloud-Giganten investieren jedoch massiv in ASICs, da diese erhebliche Einsparungen bei großem Umfang versprechen.

„Diese Unternehmen wollen mehr Kontrolle über die von ihnen erstellten Workloads“, sagte Newman. „Aber sie werden weiterhin mit Nvidia und AMD zusammenarbeiten – der Bedarf an Rechenleistung ist enorm.“

Google entwickelte als erstes Unternehmen einen eigenen KI-ASIC und brachte 2015 die Tensor Processing Unit (TPU) auf den Markt. Die Arbeiten begannen zwar bereits 2006, wurden aber 2013 dringlicher, als Google erkannte, dass KI die Größe seiner Rechenzentren verdoppeln könnte. 2017 trug die TPU maßgeblich zur Entwicklung der Transformer-Architektur bei, die den meisten modernen KI-Systemen zugrunde liegt.

Google stellte die TPU der siebten Generation im November vor. Anthropic wird sein Claude-Modell auf einer Million TPUs trainieren. Manche glauben, dass TPUs mit Nvidia-GPUs konkurrieren oder diese sogar übertreffen können.

„Viele Leute erwarten, dass Google TPUs irgendwann breiter verfügbar machen wird“, sagte Miller.

Nach der Übernahme von Annapurna Labs im Jahr 2015 brachte AWS eigene Chips auf den Markt. Inferentia wurde 2018 und Trainium 2022 eingeführt, Trainium3 wird in Kürze erwartet.

Amazon zufolge bietet Trainium ein um 30 bis 40 % besseres Preis-Leistungs-Verhältnis als Alternativen. Anthropic verwendet derzeit eine halbe Million Trainium2-Chips zum Trainieren seiner Modelle.

Für die Entwicklung kundenspezifischer ASICs sind Cloud-Anbieter auf Unternehmen wie Broadcom und Marvell angewiesen, die entscheidendes IP- und Netzwerk-Know-how liefern. „Deshalb gehört Broadcom zu den größten Gewinnern des KI-Booms“, so Miller.

Broadcom hat bei der Entwicklung von Googles TPUs und Metas 2023-Beschleunigern mitgewirkt und baut ab 2026 kundenspezifische Chips für OpenAI.

Microsoft hat den Maia 100 entwickelt. Qualcomm bietet den A1200 an. Intel stellt die Gaudi-Reihe zur Verfügung. Tesla arbeitet an seinem AI5-Chip. Startups wie Cerebras und Groq treiben die Entwicklung neuartiger Architekturen voran.

In China entwickeln Huawei, ByteDance und Alibaba trotz US-Exportbeschränkungen ihre eigenen ASICs.

Gerätebasierte KI mit NPUs und FPGAs

Eine dritte Kategorie von KI-Chips ist für die Ausführung von Modellen direkt auf Endgeräten anstatt über die Cloud konzipiert. Diese Chips sind typischerweise in System-on-a-Chip (SoC)-Designs integriert und werden als Edge-KI-Prozessoren bezeichnet. Sie ermöglichen die lokale und effiziente Ausführung von KI-Funktionen und schonen so die Akkulaufzeit und den Datenschutz.

„Sie werden KI-Aufgaben direkt auf Ihrem Smartphone mit extrem geringer Latenz ausführen können“, sagte Saif Khan, ehemaliger KI- und Technologieberater des Weißen Hauses. „Und das, ohne Daten an ein Rechenzentrum zu senden.“

Neural Processing Units (NPUs) bilden einen wichtigen Teil dieser Kategorie und werden unter anderem von Qualcomm, Intel und AMD entwickelt.

Apple verwendet zwar nicht den Begriff NPU, integriert aber eine „neuronale Engine“ in seine Mac-Chips der M-Serie und seine mobilen Chips der A-Serie.

„Dieser Ansatz hat sich als unglaublich effektiv erwiesen“, sagte Tim Millet, Apples Vizepräsident für Plattformarchitektur. „Er ist schnell und gibt uns mehr Kontrolle über das Nutzererlebnis.“

Snapdragon-Chips in Android-Handys, Samsungs eigene NPUs und Edge-KI-Prozessoren von NXP und Nvidia treiben die KI in Autos, Robotern, Kameras und Smart-Home-Geräten an.

„Der Großteil der Ausgaben fließt heute noch in Rechenzentren“, sagte Miller. „Das wird sich aber ändern, sobald KI in Handys, Autos, Wearables und alles andere Einzug hält.“

FPGAs bieten noch mehr Flexibilität, da sie nach der Herstellung neu programmiert werden können, allerdings sind sie weniger energieeffizient als ASICs oder NPUs.

AMD wurde 2022 durch die Übernahme von Xilinx für 49 Milliarden US-Dollar zum größten FPGA-Hersteller. Intel belegt den zweiten Platz, nachdem das Unternehmen 2015 Altera für 16,7 Milliarden US-Dollar erworben hat.

Fazit: Nvidia liegt weiterhin weit vorn.

Alle diese KI-Chip-Unternehmen sind von einem einzigen Hersteller abhängig: TSMC in Taiwan.

TSMC errichtet in Arizona ein riesiges Produktionswerk, in das Apple einen Teil seiner Produktion verlagern wird. Nvidia-CEO Jensen Huang gab im Oktober bekannt, dass die Produktion der Blackwell-GPUs dort ebenfalls die volle Produktionskapazität erreicht habe.

Trotz des zunehmend überfüllten Marktes bleibt es extrem schwierig, Nvidia vom Thron zu stoßen.

„Nvidia befindet sich in dieser Position, weil sie sie sich verdient hat“, sagte Newman. „Sie haben jahrelang an diesem Entwickler-Ökosystem gearbeitet – und sie haben am Ende gewonnen.“