nm99热,好吊视频欧美,无码二区三区,久久久精品伦理一区,自拍三区四区,9热无码第一页,久久久日韩无码精品,日韩有码一区在线亚洲,亚洲色91

發(fā)布詢價單
您的位置:首頁 > 資訊 > 企業(yè)動態(tài) > 正文

開源炸場!優(yōu)必選具身智能大模型Thinker再次狂攬9項全球第一!

2026-02-02 14:34 性質(zhì):轉(zhuǎn)載 作者:優(yōu)必選 來源:優(yōu)必選
免責(zé)聲明:AGV網(wǎng)(www.wnmc.org.cn)尊重合法版權(quán),反對侵權(quán)盜版。(凡是我網(wǎng)所轉(zhuǎn)載之文章,文中所有文字內(nèi)容和圖片視頻之知識產(chǎn)權(quán)均系原作者和機(jī)構(gòu)所有。文章內(nèi)容觀點,與本網(wǎng)無關(guān)。如有需要刪除,敬請來電商榷!)
過去一年,以人形機(jī)器人為代表的具身智能在實驗室中的“場景理解”與“任務(wù)規(guī)劃”上進(jìn)展顯著,但面對真實的工業(yè)產(chǎn)線任務(wù)時,往往面臨“想得到但抓不準(zhǔn)、算得出但跟不上”的困境。這背后,是長期橫...

過去一年,以人形機(jī)器人為代表的具身智能在實驗室中的“場景理解”與“任務(wù)規(guī)劃”上進(jìn)展顯著,但面對真實的工業(yè)產(chǎn)線任務(wù)時,往往面臨“想得到但抓不準(zhǔn)、算得出但跟不上”的困境。這背后,是長期橫亙在實驗室環(huán)境與真實應(yīng)用場景之間的鴻溝:人形機(jī)器人在空間層面的度量失準(zhǔn)與時間層面的響應(yīng)遲滯。

基于百億參數(shù)底座模型,優(yōu)必選對其具身智能大模型Thinker進(jìn)行了架構(gòu)升級。本次升級聚焦“小參數(shù)、高性能、全開源”,旨在打造一個能為工業(yè)人形機(jī)器人提供快速反應(yīng)與精準(zhǔn)空間感知的下一代具身智能大腦,以應(yīng)對動態(tài)工業(yè)場景的挑戰(zhàn)。Thinker將作為智能基座,為優(yōu)必選的群腦網(wǎng)絡(luò)和協(xié)作智能體Co-Agent提供認(rèn)知與決策支持,進(jìn)而驅(qū)動單機(jī)自主與群體智能的協(xié)同進(jìn)化。

Thinker 實現(xiàn)了 “小體積大能量” 的關(guān)鍵性能突破,優(yōu)必選此次將其開源,讓廣大開發(fā)者可基于該基座探索人形機(jī)器人大腦的應(yīng)用,一同加快具身智能技術(shù)的迭代節(jié)奏,攜手共建人形機(jī)器人的全新未來。

小參數(shù)+高性能+全開源 狂攬9項基準(zhǔn)全球第一

當(dāng)前,機(jī)器人領(lǐng)域大模型表現(xiàn)欠佳,尤其在空間理解、視覺感知等關(guān)鍵任務(wù)上精度不足;且模型參數(shù)量普遍較大,難以滿足機(jī)器人對實時性的高要求;其次,互聯(lián)網(wǎng)上雖有海量數(shù)據(jù),但質(zhì)量參差不齊,制約了模型通過Data  Scaling 實現(xiàn)性能有效提升。

優(yōu)必選具身智能大模型Thinker以“小參數(shù)、高性能、全開源”突破具身大腦領(lǐng)域限制。近日,在涵蓋10B以下具身智能大腦模型的權(quán)威基準(zhǔn)評測中,Thinker一舉拿下9項第一,重新定義了該領(lǐng)域的性能標(biāo)桿。這些基準(zhǔn)全面評估了具身智能的兩大核心能力:一是機(jī)器人第一視角下的場景認(rèn)知與任務(wù)規(guī)劃能力,二是支撐物理交互的精準(zhǔn)感知與空間理解能力。

該權(quán)威榜單囊括了英偉達(dá)、字節(jié)跳動、北京智源及北京人形頂尖團(tuán)隊近期發(fā)布的代表性模型,集中體現(xiàn)了具身智能行業(yè)的前沿水平。

優(yōu)必選具身智能大模型Thinker

在9項權(quán)威基準(zhǔn)評測中排名全球第一

(數(shù)據(jù)更新至01/30/2026,結(jié)果基于flageval, evalscope框架評測)

從海量數(shù)據(jù)到高質(zhì)量“大腦” Thinker的數(shù)據(jù)轉(zhuǎn)化之道

具身智能的核心競爭力根植于高質(zhì)量數(shù)據(jù)的支撐,但行業(yè)普遍面臨原始數(shù)據(jù)噪聲大、多模態(tài)對齊困難、標(biāo)注成本高、小樣本泛化難等痛點。優(yōu)必選以數(shù)據(jù)為核心,構(gòu)建了覆蓋"精煉提純 - 自動化標(biāo)注 - 數(shù)據(jù)驅(qū)動訓(xùn)練” 的全鏈路解決方案,通過極致的技術(shù)優(yōu)化破解行業(yè)難題,為輕量化具身大模型的高性能表現(xiàn)筑牢數(shù)據(jù)基座。

優(yōu)必選具身智能大模型Thinker技術(shù)架構(gòu)圖

從20B 到 10M 多模態(tài)數(shù)據(jù)的 “精煉提純” 流水線

面對高達(dá)20B、含噪聲、難對齊、模態(tài)缺失的原始數(shù)據(jù),優(yōu)必選構(gòu)建了全流程自動化“精煉提純”流水線。通過“數(shù)據(jù)篩選”與“質(zhì)量評分”兩步,實現(xiàn)從20B到10M級別高質(zhì)量數(shù)據(jù)的極致提純。

  • 廣度篩選:基于定制化規(guī)則,從視覺、語言、動作、環(huán)境等多模態(tài)數(shù)據(jù)中,快速過濾出約1%的候選數(shù)據(jù)池。

  • 深度評分:引入大模型構(gòu)建多維度評分模塊,從質(zhì)量、任務(wù)、場景等多維度進(jìn)行精細(xì)評價,最終篩選最高價值的訓(xùn)練數(shù)據(jù)。

  • 自動化標(biāo)注閉環(huán)

    人工參與率<1% 的高效方案

    針對具身數(shù)據(jù)標(biāo)注難度大、成本高的行業(yè)痛點,優(yōu)必選搭建了 “弱監(jiān)督 + 自監(jiān)督 + 少量人工校驗” 的自動化標(biāo)注體系:

  • 核心技術(shù):采用 “大模型輔助標(biāo)注 + 多模型交叉驗證” 策略,對視覺場景分割、動作序列分類、指令意圖解析等任務(wù)實現(xiàn)端到端自動化標(biāo)注;

  • 人工校驗機(jī)制:僅對標(biāo)注置信度低于閾值的樣本進(jìn)行人工復(fù)核,最終將人工參與率控制在1%以下,較傳統(tǒng)全人工標(biāo)注方案成本降低 99%,標(biāo)注效率提升超百倍;

  • 動態(tài)迭代優(yōu)化:將模型訓(xùn)練后的誤差反饋至標(biāo)注流水線,持續(xù)優(yōu)化標(biāo)注算法參數(shù),形成“標(biāo)注 - 訓(xùn)練 - 反饋 - 迭代” 的閉環(huán),標(biāo)注準(zhǔn)確率隨迭代逐步提升。

  • Data-centric 核心優(yōu)勢

    小樣本撬動強(qiáng)泛化能力

    具身智能的核心需求是 “在復(fù)雜真實場景中精準(zhǔn)交互”,而數(shù)據(jù)質(zhì)量直接決定模型的環(huán)境適配與任務(wù)遷移能力。優(yōu)必選的訓(xùn)練范式以下三個核心維度系統(tǒng)保障模型的泛化與遷移能力:

  • 樣本多樣性覆蓋:基于精煉的10M高質(zhì)量數(shù)據(jù),全面覆蓋具身智能四大核心任務(wù)類型:任務(wù)規(guī)劃, 視覺定位,空間理解,通用知識;

  • 任務(wù)導(dǎo)向型采樣:針對具身智能 “感知 - 決策 - 執(zhí)行” 閉環(huán)中的關(guān)鍵環(huán)節(jié)(如精細(xì)操作、模糊指令理解、突發(fā)場景應(yīng)對),進(jìn)行樣本動態(tài)采樣,提升模型核心能力;

  • L4級標(biāo)注標(biāo)準(zhǔn): 通過設(shè)計精細(xì)的4級數(shù)據(jù)標(biāo)簽,從任務(wù)-功能-分類-模態(tài)4個維度進(jìn)行精確劃分,實現(xiàn)對訓(xùn)練數(shù)據(jù)配比的精準(zhǔn)把控。

  • Thinker訓(xùn)練數(shù)據(jù)類型分布

    轉(zhuǎn)動數(shù)據(jù)飛輪 驅(qū)動模型持續(xù)進(jìn)化

    依托具身智能大模型Thinker的技術(shù)積淀,優(yōu)必選創(chuàng)新性打通數(shù)據(jù)回流機(jī)制,通過在工廠搬運(yùn)、工件分揀等真實場景中的深度部署,確保技術(shù)優(yōu)勢轉(zhuǎn)化為落地優(yōu)勢,并反哺模型持續(xù)進(jìn)化。包含:

    基礎(chǔ)能力深度解析

    詳細(xì)拆解模型多模態(tài)理解、空間推理、任務(wù)規(guī)劃等核心能力,明確不同具身場景下的能力邊界與適配閾值,為下游應(yīng)用提供精準(zhǔn)的技術(shù)參考。

    精準(zhǔn)問題定位指南

    提供場景化問題診斷方法論,針對落地中常見的指令理解偏差、操作精度不足等問題,給出可直接套用的排查流程與解決方案。

    實操優(yōu)化全流程指導(dǎo)

    涵蓋Prompt工程精細(xì)化優(yōu)化技巧,以及SFT微調(diào)階段的數(shù)據(jù)構(gòu)造規(guī)范、不同任務(wù)類型樣本比例配比建議,助力快速完成場景適配。

    雙向數(shù)據(jù)回流機(jī)制

    回收下游場景中的全新數(shù)據(jù)、新興任務(wù)需求及交互反饋,將其轉(zhuǎn)化為模型可學(xué)習(xí)的訓(xùn)練資源,反向注入Thinker迭代過程,持續(xù)擴(kuò)展模型基礎(chǔ)能力與泛化性。以工廠搬運(yùn)為例,系統(tǒng)持續(xù)收集實際作業(yè)中的長尾案例數(shù)據(jù),如料箱識別失敗、抓取軌跡動態(tài)調(diào)整等。這些真實場景數(shù)據(jù)直接反哺 Thinker 模型的訓(xùn)練,推動其自主進(jìn)化,不斷增強(qiáng)基礎(chǔ)性能與場景適應(yīng)能力。最終基于Thinker大模型,Walker S2可在箱體搬運(yùn)、工件分揀等下游應(yīng)用場景中實現(xiàn) 99.99% 的作業(yè)準(zhǔn)確率。

    具身智能大模型Thinker的應(yīng)用閉環(huán)

    當(dāng)前,具身智能正加速滲透工業(yè)智造、商用服務(wù)等千行百業(yè),但技術(shù)門檻與成本限制成為行業(yè)普及的關(guān)鍵瓶頸。優(yōu)必選堅持開源共享理念,將模型權(quán)重、訓(xùn)練工具鏈與應(yīng)用案例全量開放,希望與更多開發(fā)者和企業(yè)共同擁抱具身智能的浪潮。

    開源代碼網(wǎng)址:

    https://github.com/UBTECH-Robot/Thinker

    權(quán)重鏈接:

    https://huggingface.co/UBTECH-Robotics/Thinker-4B

    論文鏈接:https://arxiv.org/abs/2601.21199

深圳市優(yōu)必選科技股份有限公司是全球頂尖的人工智能和人形機(jī)器人研發(fā)、制造和銷售為一體的高科技創(chuàng)新企業(yè)。UBTECH是一家成立于2012年的全球領(lǐng)先的AI和類人機(jī)器人技術(shù)公司。它源自于2008年在數(shù)字伺服器(使類人機(jī)器人移動的核心部分)方面首次取得的行業(yè)領(lǐng)先突破,因此UBTECH的全球研究,設(shè)計,開發(fā),具備制造,銷售和營銷功能,可以成功通過JITECH機(jī)器人在家庭中以及通過UBTECH Education在教室中成功推出完整的世界一流的機(jī)器人產(chǎn)品組合,包括消費類人機(jī)器人,企業(yè)服務(wù)機(jī)器人和STEM技能構(gòu)建機(jī)器人。

UBTECH文化,在UBTECH Robotics,我們將智能機(jī)器人帶入每個家庭和企業(yè),從而改善了我們的生活,工作和娛樂方式。我們是一家充滿活力,多元化,快速發(fā)展的公司,通過深思熟慮,相互尊重的協(xié)作,重視具有全球影響力的大創(chuàng)意。從最先進(jìn)的企業(yè)部署機(jī)器人到啟發(fā)未來工程師的JIMU機(jī)器人,UBTECH致力于通過將機(jī)器人融入每個人的日常生活中來改變世界,從而提供更智能的生活方式。

UBTECH教育,UBTECH Education是UBTECH的一個部門,UBTECH是面向消費者,企業(yè)和行業(yè)的智能型人形機(jī)器人的全球領(lǐng)導(dǎo)者,我們熱衷于為所有學(xué)習(xí)者做好工作的未來準(zhǔn)備。我們的解決方案為學(xué)生蓬勃發(fā)展奠定了堅實的基礎(chǔ):結(jié)合21世紀(jì)技能和計算素養(yǎng)的發(fā)展的高質(zhì)量STEM教育。

關(guān)注官方微信

手機(jī)掃碼看新聞

正阳县| 寻乌县| 隆子县| 天津市| 呼图壁县| 仁寿县| 蕲春县| 阿坝| 内乡县| 朝阳区| 贺州市| 陈巴尔虎旗| 新邵县| 彭水| 南靖县| 武隆县| 乌兰察布市| 西昌市| 明星| 星子县| 乐至县| 泽库县| 长春市| 德州市| 万州区| 城固县| 凤山市| 偏关县| 福鼎市| 泸溪县| 云安县| 六枝特区| 台中县| 河曲县| 阜城县| 磐石市| 朝阳市| 潍坊市| 赣州市| 仙游县| 庆元县|