OpenAI führt Canvas, das kompakte Modell von Cohere und weitere Spendensammlungen ein: Die KI-Starts dieser Woche

OpenAI führt Canvas, das kompakte Modell von Cohere und weitere Spendensammlungen ein: Die KI-Starts dieser Woche

Außerdem hat Gentrace eine kollaborative KI-Testplattform angekündigt

Für die Links auf dieser Seite können wir eine Provision verdienen.
Diaschau beginnen
Diaschau beginnen
rosa und orange gemischter Hintergrund mit der Canvas-Shortcuts-Leiste
Die Leinwand von OpenAI
Bild: OpenAI

Jede Woche fasst Quartz Produkteinführungen, Updates und Finanzierungsnachrichten von Startups und Unternehmen zusammen, die sich auf künstliche Intelligenz konzentrieren.

Werbung

Hier erfahren Sie, was diese Woche in der sich ständig weiterentwickelnden KI-Branche passiert.

Werbung
Vorherige Folie
Nächste Folie

OpenAIs Canvas ist für alle Benutzer verfügbar

OpenAIs Canvas ist für alle Benutzer verfügbar

Anzeige der Canvas-Funktion auf ChatGPT 4o
Die Leinwand von OpenAI
Bild: OpenAI

OpenAI hat Canvas , eine Schnittstelle zur „Zusammenarbeit“ mit ChatGPT an Schreib- und Codierungsprojekten diese Woche für alle Web- und Windows-Desktop- Benutzer verfügbar gemacht. Die Funktion wurde verfügbar in beta für ChatGPT Plus und Team-Benutzer im Oktober.

Werbung

Canvas ist jetzt nicht mehr in der Betaphase, sondern direkt in das GPT-4o-Modell von OpenAI integriert und muss daher nicht separat im Modellwähler von ChatGPT ausgewählt werden.

Zu den weiteren neuen Funktionen gehören das Ausführen von Python-Code direkt im Canvas für Verbesserungsvorschläge und Fehlerbehebungen sowie die Kompatibilität mit benutzerdefinierten GPTs.

Werbung
Vorherige Folie
Nächste Folie

Coheres Command R7B-Modell

Coheres Command R7B-Modell

Aidan Gomez trägt eine Brille und ein schwarzes T-Shirt mit einer weißen Skizze unter einem gräulichen Kapuzenpullover mit Reißverschluss und lächelt leicht in die Kamera.
Cohere-CEO Aidan Gomez
Foto: Cohere

Cohere veröffentlicht Befehl R7B — das kleinste, schnellste und letzte Modell seiner R-Reihe von großen Sprachmodellen (LLMs) für Unternehmen — diese Woche. Aufgrund seiner kompakten Größe kann das Modell auf Grafikprozessoren (GPUs), Core Processing Units (CPUs) der Low-End-Klasse und einem MacBook ausgeführt werden, um die Produktion von KI-Anwendungen zu beschleunigen.

Werbung

In seiner Klasse von Modellen mit offenen Gewichten bietet Command R7B laut dem Startup modernste Leistung bei realen Aufgaben wie logischem Denken und agentenbezogenem Verhalten.

„Das Modell ist für Entwickler und Unternehmen konzipiert, die Geschwindigkeit, Kosteneffizienz und Rechenressourcen ihrer Anwendungsfälle optimieren müssen“, sagte Cohere.

Command R7B ist auf der Cohere-Plattform und auf HuggingFace verfügbar.

Werbung
Vorherige Folie
Nächste Folie

Speaks 78 Millionen US-Dollar schwere Serie C für KI-Sprachunterricht

Speaks 78 Millionen US-Dollar schwere Serie C für KI-Sprachunterricht

Zwei Männer stehen nebeneinander und lächeln in die Kamera vor Bücherregalen
Andrew Hsu (L) und Connor Zwick
Foto: Speak

Speak, ein KI-Startup für Sprachlernen, kündigte eine 78 Millionen Dollar Finanzierungsrunde der Serie C diese Woche. Der Deal, der den Wert des Unternehmens mit einer Milliarde US-Dollar bewertet, wurde von Accel geleitet und umfasste bestehende Investoren wie OpenAI Startup Fund und Khosla Ventures.

Werbung

Die Serie C ist die zweite Kapitalerhöhung für den KI-Sprachlehrer in diesem Jahr und hat die Bewertung des Startups innerhalb von sechs Monaten verdoppelt.

„Wir haben einen Durchbruch in der Sprechflüssigkeit erzielt, indem wir unsere firmeneigene Lernmethode mit fortschrittlicher KI kombiniert haben, die sich an die Bedürfnisse jedes einzelnen Benutzers anpasst und so viel mehr Menschen echte Sprachflüssigkeit zugänglich macht“, sagte Connor Zwick, Geschäftsführer und Mitbegründer von Speak, in einer Erklärung. „In diesem Jahr haben Benutzer bereits über eine Milliarde Sätze mit Speak gesprochen.“

Zwick sagte, Speak plane, im Jahr 2025 in weitere Länder zu expandieren.

Werbung
Vorherige Folie
Nächste Folie

Ayar Labs‘ 155 Millionen Dollar Serie D für KI-Infrastruktur

Ayar Labs‘ 155 Millionen Dollar Serie D für KI-Infrastruktur

Ein  Chip vor einem  Wafer leuchtet in bläulichen Tönen
Wafer und Chip
Bild: Michael Schoenfeld/Ayar Labs

Ayar Labs, ein Start-up, das die erste optische In-Package-I/O-Lösung entwickelt hat, um elektrische I/O in KI-Trainings- und Inferenzchips zu ersetzen, kündigte ein 155 Millionen Dollar Finanzierungsrunde der Serie D diese Woche. Der Deal wurde von Advent Global Opportunities und Light Street Capital angeführt und beinhaltete Investitionen von AMD Ventures (AMD), Intel Capital (INTC), und Nvidia (NVDA). Ayar Labs wird mittlerweile auf über 1 Milliarde Dollar geschätzt.

Werbung

Das Startup verändert mit seiner I/O-Technologie die Art und Weise, wie Daten zwischen Chips übertragen werden. Diese Technologie könne „Engpässe beseitigen, die durch herkömmliche Kupferverbindungen und steckbare Optiken entstehen“, heißt es in dem Bericht. Die Finanzierung ermöglicht es Ayar Labs, seine Technologie zu skalieren. „Kunden können dadurch die Rechenleistung und Leistung ihrer KI-Infrastruktur maximieren und gleichzeitig Kosten und Stromverbrauch senken, um die Rentabilitätskennzahlen für KI-Anwendungen drastisch zu verbessern.“

„Die führenden GPU-Anbieter – AMD und NVIDIA – und Halbleitergießereien – GlobalFoundries (GFS), Intel Foundry, und TSMC (TSM) – zusammen mit der Unterstützung von Advent, Light Street und unseren anderen Investoren unterstreicht das Potenzial unserer optischen I/O-Technologie, die Zukunft der KI-Infrastruktur neu zu definieren“, sagte Mark Wade, Geschäftsführer und Mitbegründer von Ayar Labs, in einer Erklärung. „Wir sind unglaublich glücklich, in dieser Finanzierungsrunde auf die Unterstützung von Light Streets umfassender Expertise bei technologiespezifischen Investitionen sowie Advents solidem Privat- und Wachstumskapitalhintergrund zählen zu können.“

Werbung
Vorherige Folie
Nächste Folie

Gentraces 8 Millionen Dollar schwere Serie-A- und kollaborative KI-Testplattform

Gentraces 8 Millionen Dollar schwere Serie-A- und kollaborative KI-Testplattform

Drei Männer sitzen auf einer Bank vor einer grünen Wiese und hinter ihnen die Skyline einer Stadt
Von links: Vivek Nair, Mitgründer und CTO, Doug Safreno, Mitgründer und CEO, und Daniel Liem, Mitgründer und COO
Foto: Gentrace

Gentrace, eine Entwicklerplattform, die es ganzen Produktteams ermöglicht, bei KI-Tests und -Überwachungen zusammenzuarbeiten, kündigte eine 8 Millionen Dollar Finanzierungsrunde der Serie A diese Woche. Die Finanzierungsrunde wurde von Matrix Partners geleitet und bringt die Gesamtfinanzierung des Startups auf 14 Millionen US-Dollar.

Werbung

Mithilfe der Gentrace-Plattform können Produktmanager, Fachexperten, Designer und Qualitätssicherungsmitarbeiter gemeinsam mit Entwicklungsteams die Leistung von KI-Modellen bewerten.

Das Startup hat außerdem Experiments auf den Markt gebracht, ein Tool, das kollaboratives Testen großer Sprachmodelle (LLM) ermöglicht. Mit dem Tool können Teams unter anderem Testergebnisse in der Vorschau anzeigen, bevor sie Modelle bereitstellen, und Fehler vorhersehen.

„Generative KI stellt einen Paradigmenwechsel in der Softwareentwicklung dar, aber die Realität ist, dass es viel zu viel Lärm gibt und nicht genügend Hinweise darauf, wie man sie einfach oder richtig testet und erstellt“, sagte Doug Safreno, Mitbegründer und Geschäftsführer von Gentrace, in einer Erklärung. „Wir erstellen nicht nur ein weiteres Entwicklungstool – wir stellen uns neu vor, wie ganze Organisationen zusammenarbeiten und bessere LLM-Produkte erstellen können.“

Werbung
Vorherige Folie
Nächste Folie

Crusoes 600-Millionen-Dollar-Serie D für eine mit sauberer Energie betriebene KI-Infrastruktur

Crusoes 600-Millionen-Dollar-Serie D für eine mit sauberer Energie betriebene KI-Infrastruktur

ein Rendering einer Luftaufnahme eines von Bäumen und Gras umgebenen Rechenzentrums
Site-Rendering für das KI-Rechenzentrum in Abilene, Texas
Bild: Courtesy of Crusoe

Crusoe, ein vertikal integrierter Anbieter von KI-Infrastrukturen, kündigte eine 600 Millionen Dollar Finanzierungsrunde der Serie D diese Woche. Der Deal wurde vom Founders Fund geleitet und beinhaltete Nvidia als Investor.

Werbung

Das Startup bietet eine kostengünstige und „umweltverträgliche“ KI-Infrastruktur, indem es saubere Energie in großem Maßstab nutzt. Crusoe baut außerdem KI-optimierte Rechenzentren und verfügt über eine Entwicklungsplattform.

„Wir glauben, dass ein neuer Ansatz erforderlich ist, um die KI-Revolution voranzutreiben“, sagte Chase Lochmiller, CEO und Mitbegründer von Crusoe, in einer Erklärung. „Um die Komplexität zu reduzieren, die Wertschöpfungszeit zu verkürzen und die anspruchsvollsten KI-Lösungen zu unterstützen, benötigen Kunden einen vertikal integrierten Ansatz. Wir sind in der Lage, schneller zu innovieren und neue, hochmoderne Kapazitäten in einem Bruchteil der Zeit online zu bringen, verglichen mit herkömmlichen Cloud-Anbietern. Gleichzeitig liefern wir unseren Kunden unübertroffene Ergebnisse und machen die Versprechen der KI wahr.“

Crusoe gab außerdem bekannt, dass seine Crusoe Cloud-Plattform allgemein für KI- und Machine-Learning-Workloads verfügbar ist.

Dieser Inhalt wurde maschinell aus dem Originalmaterial übersetzt. Aufgrund der Nuancen der automatisierten Übersetzung können geringfügige Unterschiede bestehen. Für die Originalversion klicken Sie hier

Werbung