Die Daten, die KI bedarf, kommen in Aschenbrenners Vision übrigens von Robotern. Die von Robotern gebaut werden, in Fabriken, die Roboter erstellt haben.
Der Typ scheint vor allem kein Techniker, sondern eher ein Schwafler zu sein. Nur konsequent also, dass er bei OpenAI rausgeflogen ist. Frage mich allerdings, wie er den Job dort überhaupt ergattern konnte ohne wirkliche Skills.
Euphorie für Nvidia und KI...
Rechenzentrengeschäft...
Umsätze...
Wo bleibt die Konkurrenz für Nvidia....
Zweifel an der Monetariesierung - wann und wie überhaupt....
Quo Vadis KI?
Zitat:Warum dieser Fondsmanager seine Nvidia-Position reduziert hat – und eine Warnung vor KI hat
Letzte Aktualisierung: 2. Juli 2024 um 13:41 Uhr ET
Erstveröffentlichung: 2. Juli 2024 um 10:43 Uhr ET
Von Philip van Doorn
Ken Laudan von Buffalo Funds hat seine Meinung darüber geändert, wie lange es dauern wird, bis „KI-Anwender“ die Technologie nutzbar machen
Da Nvidia Corp. eine Reihe vierteljährlicher Umsatz- und Gewinnzahlen aufrechterhält, ist den Anlegern möglicherweise entgangen, dass ein großer Teil der Maßnahmen rund um die generative künstliche Intelligenz immer noch vom Ausbau der Computerinfrastruktur abhängt und nicht von Nachfrage nach Produkten und Dienstleistungen, die diese Technologie nutzen. Ken Laudan von Buffalo Funds ist darüber besorgt.
„Ich mache mir zunehmend Sorgen, dass die Übergabe von KI-Enablern an Anwender viel länger dauern wird, als ich bisher erwartet hatte“, sagte er während eines Interviews mit MarketWatch.
Laudan verwaltet den Buffalo Large Cap Fund , der in der Kategorie „Großes Wachstum“ von Morningstar mit vier Sternen (von fünf) bewertet ist.
Nvidia NVDA bleibt ein offensichtliches Spiel unter Unternehmen, die Rechenzentren beim Aufbau der Rechenkapazität unterstützen, die sie benötigen, um ihre Firmenkunden bei der Entwicklung von Produkten und Dienstleistungen zur Entwicklung generativer KI zu unterstützen.
Laudan nennt die Unternehmen, die die benötigte Hardware liefern, „KI-Enabler“.
In einem Interview im Februar sagte er, dass Investoren „vielleicht im Jahr 2025“ anfangen würden, „KI-Anwendern“ mehr Aufmerksamkeit zu schenken, die er als „softwareorientierte Unternehmen, die zusätzlich zu ihrer Unternehmens- oder Branchensoftware ein großsprachiges KI-Modell verkaufen“ definierte Lagerbestand an ihre Kunden.“
Doch inzwischen hat er seine Meinung geändert.
Aus Zahlen von FactSet sowie Anleitungen von Nvidia, Advanced Micro Devices Inc. AMD und Broadcom Inc. AVGO ,
Laudan schätzte in einer Folge-E-Mail, dass die kumulierten Ausgaben „für den Silizium-(Chip-)Anteil der KI“ von Januar 2023 bis Ende 2024 200 Milliarden US-Dollar übersteigen würden.
Er schätzte, dass „Hyperscaler“, die stark in KI-Ausrüstung investieren, wie Meta Platforms Inc. META ,
letztendlich einen Jahresumsatz von 300 Milliarden US-Dollar erwirtschaften müsste, „nur um im Vergleich zu seinem bestehenden Cloud-Hosting-Geschäft bruttomargenneutral zu sein“.
Er stellte klar, dass die 300-Milliarden-Dollar-Zahl die „Anwendungsumsätze abdecken würde, die Hyperscalern von ihren Unternehmenskunden oder anderen KI-Unternehmen gezahlt werden“, und sagte, dass diese Zahl mit 3 Milliarden US-Dollar an kumulierten KI-„Anwendungs“-Umsätzen verglichen werde, die von Sequoia Ventures im April geschätzt wurden. Sie können diese Präsentation hier ansehen .
Um die Warnung vor KI-Ausgaben und einer verzögerten Auszahlung auf den Punkt zu bringen fragte Laudan: „Wann werden Hyperscaler – die 53 % des Umsatzes von Nvidia ausmachen – damit beginnen, GPU-Käufe auf der Nachfrage der Endbenutzer auszurichten, anstatt sie auf der erwarteten Nachfrage zu kaufen?“
Nvidia dominiert den Markt für Grafikprozessoren (GPUs), die in Rechenzentren installiert werden. GPUs sind die Kernkomponenten der generativen KI-Infrastruktur, obwohl viele andere Unternehmen unterstützende Ausrüstung bereitstellen.
„Die Hypsecaler kaufen aufgrund der erwarteten Nachfrage“, sagte Ludan. Aber er entgegnete diesem Punkt, indem er sagte, er glaube Tesla Inc. TSLA , und xAI (gegründet von Tesla-Chef Elon Musk letztes Jahr) waren „zunehmend positive Treiber“ für Nvidia im letzten gemeldeten Geschäftsquartal, das am 28. April endete. (Der Buffalo Large Cap Fund hatte zum 31. März eine kleine Position in Tesla.)
Er sagte, ein institutioneller Investor habe darauf hingewiesen, dass Unternehmen wie Amazon.com Inc. AMZN und Alphabet Inc. GOOGL GOOG konnten es sich nicht leisten, beim Aufbau der KI-Infrastruktur zurückgelassen zu werden.
„Wie viel vertragen Anleger?“ fragte sich Laudan. „Wenn die Bruttomargen stark sinken, werden die Anleger dies nicht fünf Jahre lang tolerieren. Irgendwann wird der Funke überspringen“, sagte er.
Laut Laudan müssen Investoren einen „dramatischen Wandel bei Hyperscalern“ erleben, damit sich die Lücke zwischen den Ausgaben für die KI-Infrastruktur und den Einnahmen der KI-Anwender „dramatisch“ schließt.
„Aber ich sehe keine Datenpunkte, die Frühindikatoren dafür sind, dass das passieren wird“, sagte er. Er geht davon aus, dass es in den nächsten 12 Monaten klarere Anzeichen – ob positiv oder negativ – geben wird.
Wie Laudan seine eigene Warnung beachtet
Der Buffalo Large Cap Fund hält in der Regel etwa 70 Aktien. Abzüglich der Kosten, die insgesamt 0,95 % des jährlich verwalteten Vermögens ausmachen, haben die Anlegeranteile des Fonds in diesem Jahr eine Rendite von 22 % erzielt und liegen damit leicht über seiner Benchmark, dem Russell 1000 Growth Index RLG, und über der Rendite von 15,6 % für den S&P 500 SPX. (Alle Renditen in diesem Artikel beinhalten reinvestierte Dividenden.)
Im Großen und Ganzen sagte Laudan, dass er „das KI-Ökosystem dahingehend kürzt, wo es nötig ist, die Übergewichtung von Industrie- und Gesundheitswerten (im Vergleich zum Russell 1000 Growth Index) beibehält und sich einige der angeschlagenen Large-Cap-Softwaretitel ansieht.“
Er sagte, er habe die Bestände des Fonds an Nvidia reduziert, die zum 31. März 7 % des Portfolios des Fonds ausmachten. Er reduzierte auch die Bestände des Fonds an AMD „etwas“ und verkaufte einige Aktien von Coherent Corp. COHR und Pure Storage Inc. PSTG , zwei alternative KI-Spiele, die er während des Februar-Interviews mit MarketWatch erwähnte.
Microsoft Corp. MSFT war zum 31. März mit einer Allokation von 11 % die größte Beteiligung des Buffalo Large Cap Fund. Laut FactSet erzielte die Aktie in diesem Jahr eine Rendite von 22 %, und Softwareunternehmen im S&P 500 erzielten eine gewichtete Rendite von 16,9 %.
Über die Welt der Technologie und KI hinaus schätzt Laudan „industrielle Compounder“ wie GE Aerospace GE , Xylem Inc. XYL und Westinghouse Air Brake Technologies Corp. WAB , auch bekannt als Wabtec.
Im Gesundheitswesen mag Laudan immer noch Eli Lilly & Co. LLY , Das Unternehmen verzeichnete im ersten Quartal einen Umsatzanstieg von 26 % gegenüber dem Vorjahr, da die Nachfrage nach seinen GLP-1-Medikamenten zur Gewichtsreduktion stark anstieg.
Zu den weiteren Gesundheitsunternehmen, die Laudan als positiv auflistete, gehörte Abbott Laboratories ABT , DexCom Inc. DXCM und AstraZeneca PLC AZN , zusammen mit Merck & Co. MRK , die er seiner Aussage nach kürzlich zum Portfolio hinzugefügt hatte.
Zitat:Hier besteht das größte Risiko für Nvidia, ein 10-Billionen-Dollar-Gigant zu werden
Grace Williams
Aktualisiert Di, 2. Juli 2024, 17:55 Uhr GMT+2
Die überwältigende Erfolgsgeschichte von Nvidia ( NVDA ) zieht hungrige Konkurrenten an – und das könnte dem Chip-Moloch im Weg stehen, schließlich eine Marktkapitalisierung von 10 Billionen US-Dollar zu erreichen .
„Es ist sehr unwahrscheinlich, dass es da draußen keine Konkurrenz [für Nvidia] gibt“, sagte Brook Dane, Portfoliomanager bei Goldman Sachs, Brian Sozzi, Chefredakteur von Yahoo Finance , in seinem „ Opening Bid “-Podcast (siehe Video oben oder hier anhören ).
„Wir glauben, dass die ASIC-Leute (anwendungsspezifische integrierte Schaltkreise) unglaubliche Arbeit leisten und wahrscheinlich einen Maßstab setzen werden“, fügte Dane hinzu.
Dane erwartet eine Stärke von Rechenzentren mit der Fähigkeit, große Sprachmodelle auszuführen, was den ASIC-Herstellern Auftrieb gibt, die für die Dateninfrastruktur benötigte Chips liefern.
„Wir glauben, dass der Markt nicht erkennt, wie groß die ASIC-Chip-Chance für ihn ist“, sagte er in Bezug auf Marvell ( MRVL ), eine der zehn größten Beteiligungen seines Fonds.
KLA Corporation ( KLAC ), die in Bezug auf die Allokation die Nummer 1 in seinem Portfolio ist, dürfte von der globalen Nachfrage in neuen Regionen profitieren. Das Unternehmen liefert Produkte und Lösungen für die Herstellung von Chips und Schaltkreisen.
Dane ist auch weiterhin optimistisch in Bezug auf Micron ( MU ), trotz der gemischten Aussichten, die die Aktie letzte Woche erschütterten .
Es wäre verständlich, dass man Nvidia derzeit als FOMO empfindet – und einige seiner zukünftigen Konkurrenten ignoriert.
Am 18. Juni erreichte Nvidia eine Marktkapitalisierung von 3,34 Billionen US-Dollar und war damit das höchstbewertete Unternehmen weltweit – kurzzeitig überholte es die Tech-Schwergewichte Microsoft ( MSFT ) und Apple ( AAPL ). Die Nvidia-Aktie wird derzeit mit einem stolzen 21-fachen geschätzten Terminverkaufswert gehandelt, gegenüber dem 12-fachen noch vor zwei Monaten.
Unterdessen wurde die Aktie kürzlich etwa 100 % über ihrem gleitenden 200-Tage-Durchschnitt gehandelt.
Im Mai meldete Nvidia Ergebnisse für das Quartal, die über dem Konsens lagen, was jede Menge positives Futter für die Bullen bot. Nvidia-Führungskräfte prognostizierten, dass die Nachfrage nach KI-Chips bis weit in das Jahr 2025 hinein weiterhin das Angebot übersteigen würde.
Das Unternehmen beginne nun mit dem Bau von KI-Fabriken, sagte Jensen Huang, CEO von Nvidia, gegenüber Julie Hyman und Dan Howley von Yahoo Finance .
„Jetzt müssen Sie an Software denken, Sie müssen an Automobile denken, Sie müssen an Robotik denken, und das bringt uns bis 2030 bereits leicht auf über 10 Billionen US-Dollar [Marktkapitalisierung für Nvidia]“, erzählte Beth Kindig , leitende Technologieanalystin bei I/O Fund, Seana Smith und Brad Smith von Yahoo Finance im Morning Brief .
Im Tech-Land gibt es keine Garantie, erinnert Dane die investierenden Massen.
„Ich würde gerne so tun, als wüsste ich genau, wohin sich die KI in den nächsten fünf Jahren entwickeln wird“, sagte er. „Wir alle versuchen, die einzelnen Teile zu verstehen und zusammenzusetzen, um Anlagetheorien und Maßnahmen für unsere Kundenkonten abzuleiten.“
In einer Folge von „ Opening Bid", plädierte Ben Laidler, Leiter der Aktienstrategie bei Bradesco, für einen 100-prozentigen Anstieg des S&P 500 in den nächsten fünf Jahren. Hören Sie unten rein.
Zitat:Tech-Analystin prognostiziert: Nvidia könnte schon in sechs Jahren 10 Billionen Dollar wert sein
Business Insider
29. Mai 2024
Die Aktie von Nvidia wird bis 2030 um 258 Prozent gegenüber dem heutigen Stand steigen und eine Marktbewertung von 10 Billionen US-Dollar erreichen, so die Analystin Beth Kindig von I/O Fund Tech.
Nvidia weiterhin auf Höhenflug
Dieser Anstieg kommt, nachdem sich der Aktienkurs von Nvidia in diesem Jahr bereits mehr als verdoppelt hat und sich bis 2023 dank der schnell wachsenden Verbreitung seiner H100-KI-Chips mehr als verdreifachen wird. Nvidia wird mit 2,8 Billionen Dollar bewertet und ist das drittgrößte Unternehmen der Welt.
Laut Kindig werden Nvidias Blackwell-GPU-Chip der nächsten Generation, seine CUDA-Softwareplattform und sein Einstieg in den Automobilmarkt zu einem weiteren massiven Wachstum des Chipherstellers führen.
Kindig schätzt, dass der Grafikprozessor Blackwell seinen Vorgänger, den H100, übertreffen und bis zum Ende des Nvidia-Geschäftsjahres 2026 einen Umsatz von 200 Milliarden Dollar (rund 184 Milliarden Euro) generieren wird.
Nvidia kann optimistisch sein
Blackwell "wird über eine Billion große Sprachmodelle ermöglichen, und das ist genau das, was Big Tech anstrebt. Diese Komponenten bilden zusammen ein sehr großes Hardware-Rechenzentrum-Segment, dann kommt die Software… und als Drittes kommt die Automobilindustrie, wir haben also noch viel vor uns. Für Nvidia ist es noch sehr, sehr früh", sagte Kindig am Dienstag zu "CNBC".
Kindigs langfristiger Optimismus in Bezug auf Nvidia beruht auf der Idee, dass das Unternehmen einen "unüberwindbaren Vorteil" in seinem GPU-Geschäft hat.
Kindig sagte, dass Schätzungen zufolge der gesamte zugängliche Markt für KI-Rechenzentren bis 2027 auf 400 Milliarden Dollar (rund 370 Milliarden Euro) und bis 2030 auf eine Billion Dollar (rund 920 Milliarden Euro) anwachsen werde, und dass ein Großteil davon von Nvidia und nicht von seinen Hauptkonkurrenten AMD oder Intel kommen werde.
„Nvidia wird den Löwenanteil davon übernehmen“, sagt Kindig, und das liegt vor allem an den Software-Angeboten von Nvidia, die in die Hardware-Produkte integriert werden.
Deshalb haben Konkurrenten auf dem Markt wenig Chancen
"Die CUDA-Softwareplattform ist das, worauf die Entwickler lernen. Ähnlich wie bei iOS haben Entwickler Anwendungen für das iPhone entwickelt und damit die Leute an das iPhone gebunden. Das Gleiche passiert mit Nvidia: Die CUDA-Plattform ist das, was KI-Ingenieure lernen, um GPUs zu programmieren, also hilft es, sie zu integrieren, und diese Kombination nenne ich im Moment einen 'undurchdringlichen Graben'", erklärt Kindig.
Schließlich, so Kindig, werden benutzerdefinierte Silizium-KI-Chips, die intern von Mega-Cap-Tech-Unternehmen wie Amazon und Alphabet entwickelt werden, niemals direkt mit Nvidia konkurrieren. "Sie werden die Chips nicht auf die gleiche Weise vermarkten und verkaufen wie Nvidia, also hat Nvidia hier eine freie Startbahn", sagte Kindig.
Business Insider berichtete vergangene Woche, dass Amazon in den vergangenen vier Jahren Schwierigkeiten bei dem Versuch hatte, KI-GPU-Chips herzustellen, die mit denen von Nvidia konkurrieren können.
Dieser Artikel wurde aus dem Englischen übersetzt. Das Original findet ihr hier.
Was wohl nur wenige wissen, NVIDIA ist Chipdesigner, Hersteller sind andere. Kaum zu erwarten, dass die Hersteller nicht massiv die Preise für NVIDIA erhöhen - man wird denen nicht alles schenken.
"Der große Shift: KI eliminiert alte Aufgaben, bringt aber neue Herausforderungen mit sich, insbesondere bei der Überwachung und Kontrolle."
__________________
Trading is both, the easiest thing to do and also the most demanding thing you've ever done in your entire life. It can ruin your life, your family, and everything you touch if you don't respect it, or it can change your life, your families, and give you a feeling that is hard to find elsewhere if you succeed.
(28.06.2024, 18:45)Lancelot schrieb: Für mich scheint das eine massive Blase zu sein.
OpenAI verbrennt absurd Kohle. Also wahnsinnig viel Kohle.
Mit, ehrlich gesagt, kaum wirtschaftlichem Nutzen.
Wenn ChatGPT die den Text schreiben kann, dann brauch den Text wahrscheinlich auch keiner.
Genauso mit Code. Das kann trivialen Boiler-Plate Kram. Wenn das der Großteil deiner Arbeitsleistung ist, macht man eh was falsch.
Ich bin nach wie vor skeptisch.Wird das nützlich sein? Bestimmt. Es wird hervorragende Produkte geben. Ich denke perpelxity macht schon viel richtig. https://www.perplexity.ai/
Aber ich denke, der wirtschaftliche Nutzen wird das Investment nicht rechtfertigen.
Ich bin weiterhin skeptisch. Gegeben den absurden Erwartungen was die LLMs/deep Transformer alles können sollen, obwohl sie dafür nicht gebaut wurden.
Große Durchbrüche für Anwendungen in der Wirtschaft werden wahrscheinlich länger dauern. Vielleicht sogar 10 Jahre. Wenn überhaupt.
LLM sind nicht nutzlos. Aber meine Vermutung ist dass der Effekt und Anwendung eher geringer ist als bei Deep Reinforcement Learning.
| 10.07.2024, 01:17 (Dieser Beitrag wurde zuletzt bearbeitet: 10.07.2024, 13:18 von boersenkater.)
Zitat:Deal mit Oracle geplatzt
Musk will Supercomputer selbst bauen
Stand: 10.07.2024 10:57 Uhr
Im Rennen um Künstliche Intelligenz drückt Tech-Milliardär Musk aufs Tempo: Weil der Bau seines neuen Supercomputers zu lange dauert, lässt er einen milliardenschweren Deal mit Oracle platzen - und baut den Computer nun selbst.
Ein geplanter Milliarden-Deal zwischen dem Cloud-Anbieter Oracle und dem KI-Start-up xAI von Elon Musk ist geplatzt. Der xAI- und Tesla-Chef Musk erklärte gestern auf seinem Kurznachrichtendienst X, man werde nun selbst ein Datenzentrum mit 100.000 Prozessoren des Typs H100 des Chipherstellers Nvidia bauen.
Zuvor hatte das Medium "The Information" berichtet, die Gespräche über den Deal mit einem potenziellen Wert von zehn Milliarden Dollar seien beendet worden. Bei dem Deal hätte das KI-Start-up Musks über mehrere Jahre hinweg Cloud-Server von Oracle gemietet.
Bedenken zur Stromversorgung
Unter anderem habe Oracle die von Musk verlangte Bauzeit als unrealistisch betrachtet, hieß es unter Berufung auf mehrere an den Verhandlungen beteiligte Personen. Zudem habe der SAP-Konkurrent Bedenken zur Stromversorgung geäußert.
Vor knapp einem Monat wurde bekannt, dass Musks KI-Unternehmen den Bau eines Rechenzentrums in Memphis, Tennessee plant, wo die Supercomputer gebaut werden sollen. Die Supercomputer werden dabei benötigt, die KI-Modelle zu trainieren. Ende Mai hatte Musk Investoren mitgeteilt, den geplanten Supercomputer bis Herbst 2025 zum Laufen zu bringen zu wollen.
Musk: "Lenkrad selbst in die Hand nehmen"
Das Geschäft mit Oracle sollte eine bestehende Abmachung erweitern, bei der Musks KI-Unternehmen Nvidia-Chips für die Künstliche Intelligenz (KI) von dem Cloud-Anbieter mietet. Musk schrieb auf X jedoch, xAI müsse schneller sein als jedes andere KI-Unternehmen, um im Wettbewerb bestehen zu können.
"Wenn unser Schicksal davon abhängt, mit Abstand der Schnellste zu sein, müssen wir das Lenkrad selbst in die Hand nehmen statt auf dem Rücksitz zu sitzen." Eine Oracle-Stellungnahme liegt noch nicht vor
Chatbot Grok soll mit 100.000 Chips trainiert werden
Gegenwärtig bietet xAI den Chatbot Grok an, eine generative KI, die damit grundsätzlich die gleiche Technologie wie ChatGPT von OpenAI nutzt. Musk erklärte nun, der Nachfolger Grok 2 sei mit 24.000 von Oracle gemieteten H100-Chips trainiert worden und dürfte vermutlich kommenden Monat veröffentlicht werden. Das neue System mit 100.000 Stück der H100 werde "der mit großem Abstand mächtigste Trainings-Cluster der Welt", schrieb Musk weiter.
Der H100-Chip ist das Flagschiff von Nvidia und stammt von 2022. Insbesondere mit ihm hat der US-Konzern im vergangenen Jahr einen Marktanteil von 80 Prozent erreicht und stieg zwischenzeitlich zum weltweit wertvollsten Konzern an der Börse auf. Schätzungen zufolge kostet ein H100-Prozessor bis zu 30.000 Dollar.
Die leistungsstarken Grafikprozessoren dominieren den Markt für Rechenzentrumschips für KI derzeit, auch wenn die Konkurrenz wie Intel nachlegt. Aufgrund der hohen Nachfrage, sind sie aber nur schwer zu bekommen. Am gestrigen Handelstag gehörten Oracle-Aktie im US-Aktienindex S&P 500 zu den schwächsten Werten mit einem Minus von drei Prozent.