Bildquelle: Generiert von Unbounded AI
Das chinesische Neujahrsfest 2025 ist gerade vorbei, aber die Nachwirkungen der von DeepSeek ausgelösten Schockwelle sind noch nicht verklungen.
Durch Methoden wie FP8-Training, Multi-Token-Vorhersage, verbesserte MOE-Architektur, Multi-Head-Potential-Aufmerksamkeitsmechanismus (MLA), und verstärktes Lernen ohne SFT erreicht DeepSeek-V3 eine Leistung, die die Spitzenmodelle wie Qwen2.5-72B und Llama-3.1-405B sowie einige Closed-Source-Modelle bei extrem niedrigen Trainingskosten übertrifft. DeepSeek-R1 zeigt sogar eine bessere Schlussfolgerungsleistung als OpenAI o1.
Der Erfolg der DeepSeek-Modellreihe hat einen neuen Weg für die Großmodellindustrie eröffnet, die ursprünglich von Rechenleistung als Kernlogik angetrieben wurde, und die grundlegenden Großmodelle der Welt auf ein neues Niveau gebracht.
Neben den grundlegenden großen Modellen mit dem Hauptthema “Technologie-Narrativ” wie DeepSeek gibt es jedoch noch eine andere Art von Forschungs- und Entwicklungsfortschritten für große Modelle, die Aufmerksamkeit verdienen, nämlich das angewandte große Modell, das KI-Technologieinnovationen rund um Kernprodukte und Kernszenarien durchführt.
China has always been a country of applications.
Im Jahr 2024 werden vor dem Hintergrund des allmählichen Aufholens des Angebots an Rechenleistung und des starken Preisverfalls für Inferenz heimische KI-Anwendungen entstehen – sei es Dream AI, Miao Ya Camera, Kuaishou Keling im Bereich Wensheng Diagram und Wensheng Video, oder Nano Search (ehemals 360AI Search) und Tiangong AI Search im Bereich der KI-Suche, oder Hoshino und Cat Box im Bereich der KI-Begleitung, oder Beanbao, Quark, Kimi, Tongyi usw., die KI-Assistenten sind, werden im Jahr 2024 eine Explosion von Nutzern einleiten.
Diese AI-Anwendungen sind untrennbar mit der Unterstützung der Modellkapazität dahinter verbunden. Für KI-Anwendungen liegt der Wettbewerb zwischen anwendungsorientierten Großmodellen nicht in den Modellparametern, sondern in der Anwendungswirkung.
Zum Beispiel konnte Kimi in kurzer Zeit eine hohe Aufmerksamkeit erlangen, was eng mit der Fähigkeit des dahinterliegenden großen Modells zur Langtexterkennung und -analyse zusammenhängt; die 200 Millionen Nutzer von Quark und die 70 Millionen monatlich aktiven Nutzer profitieren von der ‘benutzerfreundlichen’ Quark-Großmodelltechnologie dahinter; die leistungsstarken Text-to-Video und Bild-to-Video-Funktionen von KeLing AI hingegen sind auf die Unterstützung des KeLing-Großmodells angewiesen.
Die Evolution des grundlegenden großen Modells ist noch lange nicht abgeschlossen, aber mit immer mehr Unternehmen, die ab 2025 AI-Anwendungen einsetzen, wird die Entwicklung von Anwendungsmodellen eine notwendige Voraussetzung für den umfassenden Ausbruch von AI-Anwendungen sein.
Mit der Reife und dem Durchbruch der Big-Model-Technologie, der zunehmenden Verbesserung der Rechenleistungsinfrastruktur, der kontinuierlichen Verschärfung der staatlichen Politik, dem ständigen Aufkommen von Killer-Applikationen wie Sora/Suno, dem starken Wachstum der Investitionen in Bereiche wie AI-Agenten/Embodied Intelligence/AI-Spielzeug/AI-Brillen, ist das Jahr 2025 das Jahr des Ausbruchs der KI-Anwendungen, das fast schon zu einem breiten Konsens in der Technologiebranche geworden ist.
Und dieses Konsens wird auch durch den Hype von DeepSeek beschleunigt. Denn DeepSeek erhöht das Niveau der branchenübergreifenden Modellierungsfähigkeiten und schafft eine bessere Entwicklungsumgebung für KI-Anwendungen.
Gemäß der Beobachtung von ‘Jiazi Light Years’ haben bekannte Investmentinstitutionen wie Hillhouse Capital, Sinovation Ventures, Baidu Ventures und InnoVision seit der zweiten Jahreshälfte 2024 ihr Investitionsengagement in der AI-Anwendung verstärkt, insbesondere bei Frühphasenprojekten im Bereich der AI-Anwendung; Einige Investoren gaben an, dass bis Ende 2024 die tatsächliche Anzahl der AI-Anwendungsprojekte, die echte Finanzierungen auf Erstmarkt erhalten haben, mindestens doppelt so hoch ist wie die tatsächlich bekannt gegebenen Projekte.
Sensor Tower-Daten zeigen auch, dass die Ausgaben der globalen Mobiltelefonnutzer für KI-Anwendungen im Jahr 2024 1,27 Milliarden US-Dollar erreichen und die Downloads von KI-bezogenen Anwendungen im iOS- und Google Play Store 17 Milliarden Mal überschreiten.
Jedoch ist die grausame Realität, dass es Tausende von KI-Anwendungen gibt, aber nur wenige, die tatsächlich langfristig betrieben werden können, und noch weniger, die wirklich erfolgreich sind.
In der Vergangenheit hat das “Jiazi Light Year” bereits über eine Website namens “AI-Grab” berichtet, auf der 738 gestorbene oder stillgelegte KI-Anwendungen aufgeführt sind, darunter einige ehemalige Starprojekte: wie das von OpenAI eingeführte KI-Spracherkennungsprodukt Whisper.ai, die bekannte Shell-Website FreewayML von Stable Diffusion, StockAI sowie die KI-Suchmaschine Neeva, die einst als “Googles Konkurrent” angesehen wurde (siehe “AI-Grab und 738 tote KI-Projekte | Jiazi Light Year”).
Welche Art von KI-Anwendungen können also lange laufen und Vitalität haben?
“Jiazi Lightyear” ist der Meinung, dass die erste darin besteht, das Modell als Kern zu nehmen und die Fähigkeiten des Modells voll auszuschöpfen. Die zweite besteht darin, einen ausreichend starken Einblick in die Bedürfnisse der Benutzer zu haben.
Der CEO von Microsoft, Satya Nadella, hat einst die Trends der KI-Branche bis 2025 vorausgesagt: ‘Anwendungen, die auf KI-Modellen basieren, werden bis 2025 die verschiedenen Anwendungsbereiche neu definieren.’ Mit anderen Worten, Anwendungen, die weniger abstrakt sind, näher am Modell liegen und die Modellfähigkeiten maximal ausnutzen, werden die Benutzer am meisten anziehen und binden.
Es ist nicht schwer zu erkennen, wenn man die KI-Produktrangliste von New Rank im Januar 2025 betrachtet, dass in den Top Ten der inländischen Rangliste 8 direkt auf Modellen basierende Anwendungen für KI-Assistenten stehen.
Quelle: Neue Liste
Um einen ausreichend starken Einblick in die Bedürfnisse der Benutzer zu erhalten, ist es notwendig, sich auf eine riesige Benutzerbasis zu verlassen - nur mit genügend Benutzern können sich Benutzerdaten und Tags genug und dick genug ansammeln, und Unternehmen können die realsten Schmerzpunkte der Benutzer ausgraben.
Diese beiden Punkte bedeuten auch, dass große Hersteller mehr Vorteile bei KI-Anwendungen haben.
Große Hersteller verfügen über ausreichend Rechenleistung und Talente, um ihre eigenen Modelle zu entwickeln, so dass sie KI-Anwendungen direkt auf ihren selbst entwickelten Modellen einsetzen können, ohne dass Schichten von Shelling erforderlich sind. Große Hersteller haben auch eine riesige Nutzerbasis und ausgereifte Traffic-Eingänge, die nicht nur die Nutzerdaten reicher und einfacher zu schürfen machen, sondern auch natürliche Vorteile für die Förderung von KI-Anwendungen bieten. Darüber hinaus werden die starken ökologischen Integrationsfähigkeiten großer Hersteller auch dazu beitragen, reichhaltigere Funktionen für Produkte bereitzustellen und die Benutzerbindung von KI-Anwendungen zu verbessern.
Die erwähnte Produktliste bestätigt auch dies. Sechs der ersten zehn Anwendungen stammen von großen Unternehmen.
Im jüngsten Interview von Tencent Technology mit Zhu Xiaohu sagte Zhu Xiaohu auch, dass die Datenbarrieren von Startups nicht so hoch sind und sie nicht für das zugrunde liegende Modell geeignet sind, aber sie müssen den “Kunden” stärker auf das zugrunde liegende Modell beziehen. Dies bestätigt auch die Vorteile großer Hersteller bei KI-Anwendungen.
Im Großen und Ganzen bewirken und beeinflussen sich auch die Modelle und Anwendungen großer Hersteller gegenseitig und bilden zusammen ein wachsendes Schwungrad:
Die Datenakkumulation, die von der riesigen Benutzerbasis bereitgestellt wird, liefert qualitativ hochwertige Vorhersagen für die Modellforschung und -entwicklung, die dazu beitragen, die Modellfähigkeiten zu verbessern und sie besser an Segmentierungsszenarien und Benutzerbedürfnisse anzupassen. Das Wachstum der Modellfunktionen fließt in die Anwendung zurück, sodass die Anwendung über eine stärkere Produktleistung verfügt und mehr Benutzer anzieht.
Ein solches Modell, das auf einer großen Benutzerbasis beruht, von Benutzeranforderungen angetrieben wird und sich in spezifischen Szenarien besser bewährt, könnte möglicherweise als “Applied Large Model” bezeichnet werden. Theoretisch haben KI-Anwendungen, die auf dem Konzept des “Applied Large Model” basieren, eine höhere Erfolgschance.
Ein typischer Vertreter davon ist das Quark, das nur DeepSeek in der Rangliste knapp verfehlt.
‘Jiazi Light Year’ observes that in the recent chaotic battle of AI applications, quarks, which were rarely mentioned before, are silently taking the lead. Analysis by Yi Guan shows that by the end of 2024, quarks ranked first in the mobile AI application list with 71.02 million monthly active users, surpassing the well-known DouBao and Kimi.
Bildquelle: Analysen von Analysen
Besonders zu beachten ist der Kennwert der “Benutzerbindung”.
Laut einem Bericht von Drittanbietern beträgt die Dreitage-Retentionsrate von Quark über 40 %, während die Retentionsraten von bekannten Produkten wie Dou Bao und Kimi Intelligent Assistant auf dem Markt in diesem Zeitraum etwa 25 % betragen; Die von Qimai Data veröffentlichte “Liste der Top-KI-Produkte 2024” zeigt, dass Quark an erster Stelle der “Top-KI-Produkte-App-Liste des Jahres” und der “Top-Produktdownload-Liste des Jahres” steht, mit einer kumulierten Downloadzahl von über 370 Millionen im Jahr 2024, was ihn deutlich von anderen KI-Produkten abhebt und einen Durchbruch in der Führung erreicht.
Unter den vielen KI-Produkten in der Liste war Quark nicht der erste, der ein großes Modell einführte, aber es führte heimlich in Bezug auf Zugriffe, Downloads und Benutzerbindung deutlich. Warum kann Quark in einem hart umkämpften Markt so erfolgreich sein?
Und das alles dank der “Application-First”-Produkt- und Modellstrategie von Quark.
Quark hat sich seit dem ersten Tag der Suche auf „intelligente präzise Suche“ konzentriert. Nicht nur durch das schlichte werbefreie Interface und präzisere Suchergebnisse schnell einen Platz auf dem Markt gefunden, sondern auch auf Basis des Suchgeschäfts abgeleitete spezialisierte Produkte wie Quark Cloud, Quark Scanner, Quark Dokument, Quark Lernen usw. entwickelt und sich allmählich in die Bereiche Lernen und Arbeit unterteilt.
Als Beispiel im Bereich des Lernens hat Quark im Jahr 2020 die Funktion “Fotografieren und Suchen von Fragen” eingeführt. Während der Epidemiezeit hat das Quark-Lernteam die Funktion “Fotografieren und Suchen von Fragen” mehrmals aktualisiert, um vielen Schülern, die zu Hause eingeschlossen waren und Schwierigkeiten hatten, effektiv zu lernen, zu helfen.
Im Bürobereich hat Quark auch von dem vertikalen Szenario des „Scannens“ aus eine Reihe von verwandten Funktionen eingeführt, wie Textextraktion, Tabellen, Entfernen von Handschrift, Scannen von Dokumenten, Konvertieren von Dokumentenformaten usw.
Die schlichte Hintergrundfarbe des Werkzeugs, die immer reichhaltigeren Anwendungsszenarien und das anfänglich werbefreie und kostenfreie Akquisitionsmodell haben dazu geführt, dass die Nutzeranzahl von Quark stark angestiegen ist, von Millionen auf zehn Millionen, und die Gesamtzahl der bedienten Nutzer hat die Milliardenmarke überschritten.
Im November 2023 veröffentlichte Quark das Milliardenparameter-Modell ‘Quark Large Model’.
Das Quark Large Model ist ein multimodales Großfmodell, das auf der Transformer-Architektur von Quark basiert und autonom entwickelt wurde. Es wird täglich an Milliarden von Bilddaten trainiert und feinabgestimmt, und verfügt über Merkmale wie geringe Kosten, hohe Reaktionsfähigkeit und starke Gesamtleistung. Das Quark Large Model konzentriert sich mehr auf die tatsächliche Anwendung im Hinblick auf Benutzeranforderungen und Szenarien aus dem Bereich der Quark-Produkte. Es hat allgemeine, medizinische, pädagogische und andere spezialisierte Modelle abgeleitet, um eine professionellere und präzisere technische Fähigkeit bereitzustellen.
Zur gleichen Zeit wie die Einführung des Quark-Modells hat Quark die KI-Erkennungseffekte für Scan-Produkte und die KI-Suchfähigkeiten für das Netzlaufwerk verbessert.
Das erste Anwendungsszenario des QuarkChain-Modells ist Gesundheit und Medizin.
Im Dezember 2023 kündigte Quark an, seine Gesundheitssuchfunktion umfassend zu aktualisieren und im Dezember 2023 die AI-App “Quark Health Assistant” einzuführen. Der “Quark Health Assistant” integriert medizinisches Wissensgraph und generative Gesprächsfähigkeiten und bietet den Benutzern umfassendere und genauere Gesundheitsinformationen sowie Unterstützung für mehrere Fragen und Gespräche zu Gesundheitsproblemen.
Im Januar 2024 führte Quark sukzessive Funktionen wie “AI Learning Assistant”, “AI Dictation” und “AI PPT” ein, und im Juli 2024 startete es einen One-Stop-KI-Service, der sich auf die KI-Suche auf dem mobilen Endgerät konzentriert, und im August 2024 veröffentlichte es ein neues Quark PC-Terminal mit “Full-Scene-AI”-Funktionen auf Systemebene.
Zum Beispiel suchen die Nutzer nach “auf welchen Attraktionen in der Provinz Shanxi der Schwarze Mythos Wukong basiert”. Die Quark Super Search Box integriert KI-Antworten, Originalquellen und historische Suchanfragen – sie kann nicht nur intelligente Zusammenfassungen wie andere KI-Suchen erstellen, sondern bietet auch eine Quellenanzeige in der Seitenleiste und behält die traditionelle Webseitenpräsentation im Stil eines Suchmaschineneintrags unter den KI-Suchantworten bei. Dies verbessert die Effizienz der Informationsbeschaffung der Nutzer und erhöht die Glaubwürdigkeit von KI-Antworten.
Darüber hinaus hat Quark ein One-Stop-Informationsdienstsystem rund um die „Super-Suchleiste“ aufgebaut, das intelligente Tools wie Netzwerkfestplatten, Scans, Dokumentenverarbeitung und Gesundheitshelfer umfasst und einen nahtlosen Informationsdienst von der Suche über die Erstellung, Zusammenfassung bis hin zur Bearbeitung, Speicherung und Freigabe für die Benutzer ermöglicht.
Im Gegensatz zu vielen großen Fabriken, die ChatGPT imitieren und einen „All in One“-Chatbot-ähnlichen KI-Assistenten einführen, verfolgt Quark eine „AI in All“-Strategie, bei der KI-Fähigkeiten in jeden Aspekt des Produkts integriert und in konkreten Anwendungsszenarien umgesetzt werden.
Von der anfänglichen Fotoaufgaben-Suche über die Beratung zur Anmeldung für das College-Entrance-Examination bis hin zur Unterstützung bei der intelligenten Büroarbeit dreht sich die Produktentwicklung von Quark stets um die spezifischen Anforderungen der Benutzer in bestimmten Szenarien. Anschließend hat Quark nacheinander Funktionen wie KI-Aufgabensuche, KI-Akademiksuche, KI-Tipps usw. eingeführt und aktualisiert, um differenzierte KI-Anwendungen im Lern- und Arbeitsumfeld zu schaffen.
Der Entwicklungsprozess von Quark AI im vergangenen Jahr, Kartierung: Jiazi Lichtjahr
Darunter ist die Funktion “AI Search”, die im November 2024 aktualisiert wird, ein typischer Vertreter der KI-Fähigkeiten von Quark.
Tatsächlich hat Quark bereits im Dezember 2023 einen KI-Themenassistenten auf den Markt gebracht. Zu dieser Zeit verließen sich KI-Themenassistenten noch mehr auf die “Wissensbasis” der Fragendatenbank, und die KI konnte den Benutzern nur beibringen, die Fragen in der Fragendatenbank zu beantworten. Das aktualisierte KI-Fragensuchprodukt verfügt über eine stärkere “Intelligenz”, die nicht nur die ursprünglichen Fragen in der Fragendatenbank beantworten kann, sondern sich auch neuen Fragen und Problemen stellt. Die Verwendung des großen Modells “Chain of Thinking (CoT)” ermöglicht es Quark AI, die Problemlösungsideen und Problemlösungsschritte der Reihe nach zu präsentieren und den Benutzern eine detailliertere Inhaltsanalyse und Lernanleitung zu bieten.
Im Vergleich zu ähnlichen Fragensuchprodukten, die meist auf Fragendatenbanken basieren und nur Fragen aus dem K12-Bereich beantworten können, können die KI-Fragensuchprodukte von Quark nicht nur neue Fragen im K12-Bereich beantworten, sondern auch berufliche Fragen in der postgradualen Aufnahmeprüfung, der öffentlichen Aufnahmeprüfung und verschiedenen Qualifikationsprüfungen. Benutzer müssen nur ein Foto oder einen Screenshot machen, und Quark kann nach der entsprechenden Frage suchen und Schritt für Schritt professionelle Inhalte in Grafiken, Videos und KI-Antworten geben. Darüber hinaus können auch die “KI-Suchfragen” von Quark Antworten auf Fragen in unterteilten Bereichen wie Recht und Medizin geben.
Quarks Antwort auf die juristische Prüfungsfragen
Gleichzeitig kann die “KI-Fragensuche” von Quark auch KI-Funktionen nutzen, um die Wissenspunkte und Testpunkte in den Fragen eingehend zu erklären und die wichtigsten Schritte genau zu lokalisieren, so dass Benutzer nicht nur diese Frage lernen können, sondern auch diese Art von Frage, indem sie “Schlussfolgerungen voneinander ziehen”.
Die leistungsstarke Fähigkeit der “KI-Suche” von Quark beruht nicht nur auf Quarks jahrelanger Suchausfällung, der Ansammlung von genügend hochwertigen Informationen und Benutzerbedürfnissen in Lernszenarien, sondern ist auch untrennbar mit der Unterstützung des “gnostischen” Lernmodells von Quark verbunden, das im gleichen Zeitraum eingeführt wurde.
Das “Gnosis”-Modell wird vom technischen Team von Quark auf der Grundlage des “Quark-Modells” und der seit vielen Jahren im Bildungsbereich gesammelten hochwertigen Daten trainiert.
Mit anderen Worten, es geht darum, den Schülern ein Problem zu erklären, und das “gnostische” Modell weiß, welche Wissenspunkte zu erklären sind und wie die Lösungsideen zu konstruieren sind.
Using the 2024 Beijing college entrance examination mathematics real questions as an example, the answers obtained by inputting them into DeepSeek and Quark are as follows:
Die Antwort von DeepSeek
Quarks Antwort
Es ist zu sehen, dass die Antwort von Quark im Vergleich zu DeepSeeks langatmiger Gedankenkette und offiziellen, detaillierten Antworten prägnanter ist und eher eine Frage erklärt.
Aufgrund einer Vielzahl von “Wissenserklärungs”- und “populärwissenschaftlichen” Szenarien hat die Bildungswirtschaft hohe Anforderungen an die multimodale Fähigkeit von Modellen gestellt. Die bestehenden multimodalen Modelle weisen jedoch eine schlechte Erkennung von Formeln, handschriftlichen Notizen usw. auf, insbesondere das feinkörnige Verständnis von Graphen.
Um dieses Problem zu lösen, konstruiert das Quark “Gnostic” Large Model durch eine großskalige multimodale Pre-Training-Basis ein großskaliges domänenprofessionelles Trainingskorpus und sorgt gleichzeitig für einen besseren Verständniseffekt in der Modellstruktur.
In der jüngsten Auswertung sind die Genauigkeit und die Trefferquote des “gnostischen” Lernmodells von Quark bei postgradualen mathematischen Problemen vergleichbar mit OpenAI-o1 und übertreffen andere Modelle in China bei weitem. In einer Reihe wichtiger Tests, wie z. B. inländischen Mathematikwettbewerben und College-Aufnahmeprüfungen, liegen Quarks Genauigkeitsrate und Bewertungsrate ebenfalls an der absoluten Spitze.
Präsentation der mathematischen Bewertungsergebnisse des ‘Lingzhi’ Großmodells
Quelle: Quark
Im Gegensatz zu Unternehmen wie DeepSeek, die rein grundlegende Modellfunktionen entwickeln, orientiert sich das F&E-Modell von Quark an den Bedürfnissen der Benutzer. Am Beispiel des KI-Schreibens hat das technische Team von Quark ein kulturelles und kreatives Modell von Quark entwickelt, das mehr als 8.000 lange Aufsätze generieren kann, indem es mehrstufige CoT- und Retrieval-Enhancement-Technologie verwendet, um die Bedürfnisse junger Quark-Benutzer beim Schreiben von Berichten und Papieren zu erfüllen und die Einhaltung der Wortzahl zu gewährleisten. Und selbst DeepSeek kann derzeit nur Aufsätze von bis zu 3.000 Wörtern generieren.
Darüber hinaus ist die KI-Schreibfunktion von Quark auch gleichbedeutend mit einem “Text-Online-Editor”, in dem Benutzer die generierten Artikel löschen, polieren, erweitern und andere komplexe Operationen durchführen können, was auch untrennbar mit der Unterstützung der kulturellen und kreativen Modellfunktionen von Quark verbunden ist.
Man kann sagen, dass Quark in einer Zeit, in der die Welt große Modellparameter “rollt”, mehr Wert auf praktische Anwendungsszenarien gelegt und basierend auf den Bedürfnissen der Benutzer die Modellfunktionen gezielt aktualisiert und optimiert hat. Bisher hat Quark KI-Funktionen auf Systemebene für alle Szenarien entwickelt.
Quelle: Quark
Als eines der vier innovativen Unternehmen von Alibaba auf strategischer Ebene repräsentiert jeder Schritt von Quark nicht nur sich selbst, sondern auch die Richtung des gesamten KI-zu-C-Geschäfts von Alibaba.
Am 15. Januar hat Quark sein Markenslogan aufgerüstet - “Der AI-Alleskönner für 200 Millionen Menschen”, um die neue Geschäftsdynamik bei der Beschleunigung der Erforschung von KI-zu-C-Anwendungen zu präsentieren. Vor kurzem tauchte Alibaba-Gründer Jack Ma plötzlich im Alibaba-Hangzhou-Park auf und besuchte auch die Bürobereiche von Quark und anderen KI-zu-C-Geschäften.
In jüngster Zeit hat Ali häufig Schritte im Bereich AI To C unternommen: Zuerst kehrte Wu Jia, eine Führungskraft der “Young Zhuang School”, zur Alibaba Group zurück, um das AI-To-C-Geschäft zu erkunden; Dann wurde Alibabas KI-Anwendung “Tongyi” offiziell von Alibaba Cloud ausgegliedert und mit der Alibaba Intelligent Information Business Group verschmolzen. In letzter Zeit hat laut Medienberichten auch das Hardware-Team von Tmall Genie an der Integration mit dem Quark Produktteam gearbeitet, und sein Fokus umfasst die Planung und Definition einer neuen Generation von KI-Produkten sowie die Integration mit den KI-Fähigkeiten von Quark. Nachdem das Team integriert ist, wird das neue Team auch neue Hardware-Richtungen erkunden, einschließlich KI-Brillen.
Von nun an werden Quarks, Tongyi-App und Tmall Genie jeweils als Produktivitätstools, Chatbots und KI-Hardware fungieren und den Benutzern differenzierte Dienstleistungen anbieten.
Am 6. Februar hat der ToC-Bereich von Alibaba einen hochkarätigen Neuzugang verzeichnet - der weltweit führende Wissenschaftler im Bereich künstliche Intelligenz, Professor Steven Hoi, ist offiziell Alibaba beigetreten und wurde zum stellvertretenden Geschäftsführer der Alibaba Group ernannt. Er wird direkt an Wu Jia berichten und für die grundlegenden multimodalen Modelle und die Agenten im AI To C-Geschäft sowie für Forschung und Anwendungslösungen zuständig sein.
Insidern zufolge wird sich Professor Xu Zhuhong auf das multimodale Grundmodell des KI-to-C-Geschäfts und die Grundlagenforschung und Anwendungslösungen im Zusammenhang mit Agenten konzentrieren, die den Sprung in der End-to-End-Closed-Loop-Fähigkeit von Alibabas KI-Anwendungs-C-End-Produkten in der Kombination von Modellen und Anwendungen erheblich verbessern werden. Sobald die Fähigkeiten multimodaler Basismodelle durchbrochen haben, haben C-End-Anwendungen wie Quarks neuen Raum für die Erforschung in der Wirtschaft.
Gleichzeitig baut das AI To C-Geschäft von Alibaba ein erstklassiges AI-Algorithmus-Forschungs- und Ingenieurteam auf, um eine große Anzahl erstklassiger Branchentalente anzuziehen. Brancheninsider analysieren, dass der Beitritt erstklassiger Wissenschaftler auf Weltniveau im Jahr 2025 als wichtiges Signal für Alibabas verstärkte Investition in Talente und Ressourcen im Bereich AI To C angesehen werden kann. Das hochkarätige Team für große Modelle wird Alibabas AI To C bei der eingehenden Erforschung von Multi-Modal-Agenten und anderen Bereichen unterstützen und auch den Raum für Vorstellungskraft bei der Entwicklung einer auf Benutzer ausgerichteten AI-Anwendungsplattform in der nächsten Phase eröffnen.
Heute hat Byte stark in den Bereich der KI-Anwendungen investiert und die “App Factory”-Strategie neu gestartet, indem es energisch in Streams, interne Pferderennen und aktive Auslandsaufenthalte investiert hat. Tencent hat zwei Produkte, “Yuanbao” und “Yuanqi”, in Richtung KI-Assistenten und intelligente Zwillinge auf den Markt gebracht und durch das neu eingeführte persönliche Wissensmanagement-Tool ima.copilot wieder öffentliche Aufmerksamkeit erlangt, während Baidu eine KI-Produktmatrix mit Wenxin Yiyan, Wenxin Yige, Orange AI und Super Canvas usw. auf den Markt gebracht hat, um “Sättigungsangriffe” auf Freunde mit einem “großen und vollständigen” Ansatz durchzuführen. Darüber hinaus haben sich auch neue Startups wie das große Modell “Six Little Tigers” und DeepSeek bemüht, KI anzuwenden, und Alibabas KI-To-C-Geschäft kann als von starken Feinden umgeben beschrieben werden, und der Druck kann man sich vorstellen.
Es muss jedoch eine Lösung für das Problem geben. Durch die Strategie der “KI in Allen” und die präzise Kontrolle der Benutzerbedürfnisse hat Quark bewiesen, dass eine starke Produktleistung ohne Rechtschreibparameter erreicht werden kann, wobei man sich auf “anwendungsgroße Modelle” und ein genaues Verständnis der Benutzerbedürfnisse verlässt, was auch eine weitere Version von “niedrigen Kosten und hoher Effizienz” ist. Und mehr als 200 Millionen Nutzer und das Top-Ranking der monatlich aktiven Nutzer. Es beweist auch die Richtigkeit des Spielstils von Quark und die glänzende Zukunft von Alis AI-To-C-Geschäft.
In der aktuellen Phase, in der die AI-Technologie in die “Anwendungstiefe” vordringt, hat uns das innovative Paradigma von Quark wichtige Erkenntnisse gebracht: Die wahre technologische Fortschrittlichkeit liegt nicht nur darin, wie viele technologische Gipfel erklommen werden können, sondern auch darin, wie viele wissenschaftliche und technologische Errungenschaften in einen Wert umgewandelt werden können, den die Benutzer buchstäblich spüren können. Und nur wenn Benutzer tatsächlich wählen und mit konkreten Maßnahmen für die Anwendung von KI stimmen, könnte dieser Durchbruchskampf, der die praktische Anwendung von KI betrifft, möglicherweise den wahren Wendepunkt bei der Bestimmung des zukünftigen industriellen Umfelds erreichen.