
当国内具身智能赛道还在扎堆大模型融合路线时,仝人智能走出了一条完全不同的路。
这家由中科院西光所孵化的科创企业,近日完成近 4 亿元 A 轮融资,背后是其打破行业惯性、以数学方法打造 “无需数据训练” 具身大脑的核心突破,也让市场看到了中国具身智能下半场的全新可能。
这场颠覆的背后,是国科大教授吴易明二十余年的技术深耕。1975 年出生的他,从西安交大机械工程专业毕业后进入中科院西光所,深耕瞄准技术与原子惯性技术,曾斩获国家科技进步特等奖,还在国科大攻读博士并晋升教授、博导。2013 年,吴易明开启创业之路,从最初的西安中科光电起步,七人团队的小公司,在 2016 年跨界智能识别领域,彼时的他甚至花三年补学数学,只为攻克小样本下的精准智能识别难题,而这一切,都早于 “具身智能” 概念的普及。

2021 年,中科光电正式推出仝人智能品牌,率先提出具身智能是智能科学研究新范式,其品牌名也暗藏巧思:“仝” 拆为 AI 与工人,直指做像人一样感知、决策、执行的工业与特种机器人。而真正让仝人智能站稳脚跟的,是其对具身智能技术逻辑的底层重构。
当下主流的具身智能研究,几乎都绕不开 “语言大模型 + 视觉大模型” 的融合路线,海量标注数据训练、高算力集群支撑成为标配,却也陷入了语义模糊、小样本场景落地难的行业困局。仝人智能则跳出了这一框架,打造出一套不依赖大模型的 “具身大脑”,核心是用微分几何、拓扑学等数学方法,建立物理世界的精准映射,让机器真正 “理解” 空间与任务,而非简单 “记住” 数据规律。
这套识别与规划双层架构的具身大脑,藏着两大核心突破。识别层作为机器人的 “智慧中枢”,摒弃了视觉大模型的像素级处理,通过数学方法实现从数学语言到物理空间的直接映射,即便是无训练数据、小样本非标的工业场景,也能精准识别工件的精细结构与尺寸;规划层则化身 “决策中枢”,将传统机器人运动规划的逆解问题转化为正解问题,无需人工示教和重复编程,就能完成感知到决策再到执行的全流程闭环,真正实现机器人的自主思考与行动。从数据依赖到完全摆脱训练、从高算力需求到适配普通工业硬件,仝人智能用技术创新解决了行业长久以来的痛点。

资本的青睐从来都源于落地的实力,这也是中国具身智能赛道走到下半场的核心命题。融资火爆的背后,行业早已达成共识:脱离真实订单的技术,终究只是空中楼阁。而仝人智能的核心技术,早已在产业端完成了商业化闭环。
依托具身大脑,仝人智能打造了视觉终端与机器人两大产品体系,覆盖航空航天、造船、核工业、重工机械等多个非标制造领域。业界首款具身智能双目立体相机,能适应室外强光、强反光等复杂工业场景,成为具身大脑的 “视觉器官”;智能焊接机器人作为首款量产标杆产品,已在重型装备、船舶制造行业大规模交付;智能测量机器人则打破传统模式,实现柔性测量,适配小样本、多品种的混合测量场景。多款产品的规模化落地,不仅验证了技术的实用性,更为其后续研发奠定了坚实基础。
如今的仝人智能,正沿着清晰的 “三步走” 战略稳步推进:第一阶段的智能制造领域产业化闭环已完成,目前正处于第二阶段,聚焦智能板卡、类脑芯片等核心部件研发,将具身大脑的算法与硬件深度融合,破解行业智能化 “卡脖子” 难题,为机器人厂商赋能;未来,其还将向通用人形机器人发起冲击,打造能自主使用工具、在非确定环境下执行任务的通用智能机器人。

从实验室的技术突破,到产业端的批量落地,再到核心部件的自主研发,仝人智能的发展路径,恰是中国具身智能赛道的一个缩影。当行业从资本驱动转向技术落地与产业赋能,唯有跳出固有框架、扎根底层创新,才能在大浪淘沙中站稳脚跟。而仝人智能用数学重构具身智能的尝试,也为行业提供了全新的解题思路,让我们看到了中国硬核科技突破的更多可能。