Apple -Forscher “Denk auf Aufregung” Offengeborenen Offengeborenen und Windows -Blog
In den letzten Stunden ist es eine Forschungsrolle, die KI -Beobachter mit KI -Beobachtern erlebt hat. In einem Stück Papier diskutieren Apple -Forscher die Möglichkeiten und Grenzen von Großsprachmodellen (Argumentation), von denen angenommen wird, dass sie “denken” können. Diese Erfindung ist wenig auf dem Papier übrig.
In der Zusammenfassung des Papiers gingen die neuesten “Modelle” Modelle großartiger Gründe “(LRMs) der Grenzsprachen ein, die vor der Beantwortung spezifische Denkprozesse erzeugen. Während diese Modelle
Bei Referenzen sind grundlegende Fähigkeiten, Skalierungseigenschaften und Einschränkungen nicht genug bekannt.
Aktuelle Bewertungen basieren auf hauptsächlich etablierten mathematischen und codierenden Referenzen und betonen die Genauigkeit der endgültigen Antworten. Nach Angaben von Apple -Forschern leidet dieses Bewertungsparadigma unter Datenverschmutzung und kennt die Struktur und Qualität der Spur des Arguments und der Argumentation nicht.

Untersuchung der Forschung bei der Erforschung: Verständnis der Stärken und Grenzen des Denkens der Komplexität der Problemkomplexität mit Hilfe der systematischen Kontrolle der “Puzzleumgebungen”. Diese Umgebungen ermöglichen eine detaillierte Manipulation von Zusammensetzungsverbund und beibehalten kohärente logische Strukturen.
Laut Forschern ermöglicht diese Struktur die Analysen zu den neuesten Antworten, aber auch interne Anzeichen des Arguments, das den LRMs “Think” bekannt macht.
Durch umfangreiche Experimente mit verschiedenen Rätseln zeigen die Forscher, dass diejenigen, die über eine gewisse Komplexität hinausgehen, um in voller Präzision zu überwinden, an Grenzen liegt.
Darüber hinaus haben sie eine unbestimmte Skala: Der Kauf von Mauer steigt zu einem bestimmten Problem mit der Komplexität der Probleme und wird dann trotz des richtigen Token -Budgets gesenkt.
Vergleich von LRMs mit ihrem LLM -Standard mit Standard -LELM -Verträgen, äquivalenten Berechnungen äquivalenter Schlussfolgerungen haben Forscher drei Leistungsbereiche identifiziert:
(1) Aufgaben mit geringer Komplexität, bei denen Standardmodelle besser schneiden als LRMs,
(2) Aufgaben mit mittlerer Komplexität beim Komplementär Denken von LRM
ist ein Vorteil und
(3) Aufgaben mit hoher Komplexität, die vollständig in zwei Modelle fallen.
Die Forscher haben festgestellt, dass LRMS keine explizite Algorithmen verwendet, die keine explizite Algorithmen verwenden, und glauben, dass jedes Puzzle nicht inkonsistent ist. Bei der Arbeit untersuchen die Forscher auch die Spuren des Arguments genauer und analysieren und analysieren das Verhalten von Modellen, um ihre Stärken und Einschränkungen zu klären. Schließlich stellen die Ergebnisse entscheidende Fragen zu den tatsächlichen Denkfähigkeiten neuer Stimmmodelle. In diesem Artikel klassifiziert jemand die Ergebnisse der Studie.
gadgets les plus récents 2024
Game Center
Game News
Review Film
Berita Terkini
Berita Terkini
Berita Terkini
review anime