Meta ist Milliarden für Chips ausgeben auf ihren KI-Ambitionen auszubauen, und eine ihrer Bemühungen konzentriert sich auf seine Videoplattform, sagte ein Manager.
Als Teil der „Technologie-Roadmap“vonMetafür derzeit bis 2026 wird die Das Unternehmen entwickelt ein KI-Modell zur Umsetzung von Empfehlungen für seine Videos und Benutzer-Feeds, sagte Tom Alison, der Chef von Facebook auf einer Morgan-Stanley-Tech-Konferenz am Mittwoch.
Jetzt, in der dritten Phase, sagt Alison, dass Meta daran arbeitet, die Verwendung von großen Sprachmodellen (LLMs) und generativer KI weiter zu validieren Mehr Produkte antreiben und skalieren.
„Anstatt nur Reels mit Strom zu versorgen, arbeiten wir an einem Projekt, um unser gesamtes Video-Ökosystem mit diesem einzigen Modell zu versorgen, und können es dann auch „Wir fügen unser Feed-Empfehlungsprodukt hinzu, damit es auch von diesem Modell bedient wird“, sagte Alison. „Wenn wir das richtig machen, nicht nur Werden die Empfehlungen ansprechender und relevanter sein, aber wir denken, dass auch die Reaktionsfähigkeit verbessert werden kann.“
„In der Vergangenheit hatte Meta ein anderes KI-Modell, das Empfehlungen für jedes Produkt lieferte, wie zum Beispiel Reels, Groups und Feed“, sagte Alison Die erste Phase der „Technologie-Roadmap“ von Meta bestand darin, die derzeit empfohlenen Systeme von Computerchips auf GPUs bzw. Grafikverarbeitungseinheiten umzustellen „Eine bessere Leistung erzielen“, sagte Alison. Aber letztes Jahr, so Alison, begann das Unternehmen mit der Prüfung, ob LLMs und generative KI zur Umsetzung von Empfehlungen eingesetzt werden könnten.
„Was wäre, wenn wir anstelle dieser Empfehlungsmodelle pro Produkt tatsächlich eine einzige Empfehlungsarchitektur hätten, die alle antreiben könnte? unserer Empfehlungsprodukte, und das könnte viele Daten nutzen“, sagte Alison
Alison sagte, dass das Unternehmen die neue Empfehlungsarchitektur mit Reels getestet und die gleichen Daten wie beim Vorgängermodell verwendet habe. Bei Facebook Reels geht es darum ein Drittel der Videozeit von Facebook, sagte Alison, während die Videozeit auf der Plattform mehr als 50 % der insgesamt auf der Plattform verbrachten Zeit wert ist site. Meta erreichte einen 8-10 % Gewinnen Sie an Reels-Sehzeit mit der neuen Architektur.
„Das hat uns gezeigt, dass diese neue Modellarchitektur viel effizienter aus den Daten lernt als die vorherige Generation“, sagte Alison Er sagte außerdem, dass sich das Unternehmen darauf konzentriert, mehr in die Skalierung seiner Modelle mit der richtigen Hardware zu investieren
Zusätzlich zum Video arbeitet Meta laut Alison an anderen generativen KI-Projekten, darunter digitalen Assistenten und der Verbesserung seiner Chat-Tools in Feed und Gruppen.
Dieser Inhalt wurde maschinell aus dem Originalmaterial übersetzt. Aufgrund der Nuancen der automatisierten Übersetzung können geringfügige Unterschiede bestehen. Für die Originalversion klicken Sie hier