Uploads%2farticles%2f16759%2f20260109 xyy07622
|
2 小时前

桌宠陆卡卡,一只「兵蚁」从二次元走进现实 | CES2026

具身智能开始走向「情感消费」

在拉斯维加斯金沙馆密集的展台间,我们穿过熙攘的人群,视线被一只灵动的「小机械生物」瞬间抓住。这就是陆吾智能(LuwuDynamics)在此次展会上首次公开亮相的全新产品——陆卡卡机器人。

这是一款以《少女前线》「兵蚁」形态为原型打造的跨次元具身智能桌宠,融合了机械运动、AI 大模型与情绪交互系统,让虚拟角色真正「活」在现实桌面之上。

640-8

从机器人研究所走出的桌面具身智能玩家

陆吾智能的核心团队源自哈尔滨工业大学机器人研究所,具备扎实的机器人运动控制与系统工程背景,在四足、轮足与多形态桌面机器人领域积累了多年的技术经验。

在过去几年里,陆吾智能构建了完整的产品矩阵:面向 K12 编程教育的 XGO 教育级机器人;面向极客与开源社区的 RIG 系列桌面机器人;以及面向大众消费市场的 IP 联名与情感陪伴型产品。其中多款产品在 Kickstarter 上获得了出色的众筹成绩,使其成为少数在「桌面多形态机器人」领域实现规模化出货的团队之一。

luwu-col

在教育市场稳定造血的同时,陆吾智能开始将目光投向消费级具身智能与情感交互产品,陆卡卡正是这一战略下的代表性产品。

陆卡卡:从「能动的机器」到「有性格的桌面伙伴」

我们在展位现场第一时间上手试玩,并跨越时差连线了陆吾智能创始人刘鹏飞。隔着屏幕,他向我们分享了这款产品如何让虚拟角色「活」在现实桌面上的思考。

跨次元定位:桌面具身智能桌宠

陆卡卡定位于一款跨次元具身智能桌宠。在外形设计上深度复刻了《少女前线》中「兵蚁」的机械生物设定,将二次元中常见的「拟态机械生命」转化到现实中,它既不是传统意义上的玩具,也不是工具型机器人,而是一种介于情感陪伴、互动娱乐与智能终端之间的新形态。

lukaka_(1)

硬件上,陆卡卡采用五自由度机械结构,在有限体积内也能实现丰富的动作表达;由一颗 BK7259 芯片提供算力,并集成摄像头、显示屏与多模态传感器,使其具备基础环境感知与本地处理能力。

%E9%99%86%E5%8D%A1%E5%8D%A1_opt

本地算力+ AI 大模型的混合智能架构

与许多「强依赖云端」的智能玩具不同,陆卡卡在算力架构上选择了本地算力与云端大模型协同的方式。

BK7259 芯片内置的 NPU 支持唤醒词的毫秒级响应,并可在本地完成部分视觉与语音任务,例如人脸追踪、手势识别和基础行为判断;在此之上,陆卡卡接入 Qwen、DeepSeek 等主流大模型,语义理解准确率被提升至 90% 以上,使其不再只是「按指令执行动作」,而是能够理解上下文并进行连续对话。

%E6%91%84%E5%83%8F%E5%A4%B4

更重要的是,陆卡卡引入了长期记忆系统:它不仅记录对话内容,还会对交互进行阶段性总结,逐步形成对用户偏好、用词风格和互动习惯的理解,让机器人在长期陪伴中呈现出明显的「关系演化」。

情绪引擎:让动作成为情感表达

在具身智能领域,「动起来」并不难,难的是让动作有符合交互语境的情绪含义。

陆卡卡内置的情绪引擎,将情感状态直接映射到表情和动作两层表达系统中:在表情层,通过 1.09 英寸圆形全彩屏,实时显示害羞、愤怒、得意等动态表情;在动作层,由情绪直接驱动五自由度关节,例如生气时的「捶地动作」,开心时的摇摆与撒娇。

%E8%A1%A8%E6%BC%94%E6%A8%A1%E5%BC%8F

这种「情绪 → 动作」的闭环设计,使陆卡卡的交互体验更接近生物直觉,而非机械反馈。用户还能通过 App 进行蓝牙或 Wi-Fi 控制,选择不同的性格插件,如军事战术、赛博科幻或娱乐向人格,进一步强化养成体验。

IP 专属动作与生态扩展

作为与《少女前线》深度联动的产品,陆卡卡在 IP 还原度上下了不少功夫。

其「战斗模态」不仅复刻了兵蚁的核心动作逻辑,还在灯效系统中加入了 70mm 流水灯组,通过渐变光效模拟能量充能与战斗状态;用户可通过语音指令切换模式,触发不同节奏的灯效与动作组合。

%E5%94%A4%E9%86%92+%E8%81%8A%E5%A4%A9

在动作设计上,陆卡卡既包含巡逻、警戒等战术动作,也加入了明显的反差萌互动行为,让角色既保留世界观设定,又适配现实桌面场景。这种 IP + 具身交互的设计方式,也为后续更多内容生态扩展留下了空间。

luwu-col-2

深圳湾简评:桌面具身智能走向「情感消费」

在具身智能的发展过程中,一个逐渐清晰的趋势正在显现:

机器人不再只是执行预设动作的硬件载体,AI 也不再停留在语言或屏幕层面的表达,而是开始尝试通过物理动作完成情绪与意图的传递。

这意味着,机器人控制系统与 AI 模型之间的关系正在发生变化——从简单的指令调用,转向更紧密的语义协同:AI 负责理解和生成情绪、意图与上下文,控制系统则需要以更细腻、更可解释的方式,将这些抽象信息转化为稳定、可重复的身体动作,为机器人赋予生命感。

让机器人「怎么动」更贴近 AI 「想表达什么」,正在成为具身智能领域中一个越来越重要的命题。


编辑:深圳湾

>>
Back to top btn