第565章 咸鱼也要搞技术(2/2)
两人争起来,我在旁边听得津津有味。最后老李打圆场:“要我说,能不能折中?基础功能要稳定,情绪识别作为增值功能,让用户自己选要不要开启?”
我觉得这个主意好。就跟电视机一样,基础功能是看节目,那些花里胡哨的智能推荐,愿意用的就用,不愿意用的就关掉。
这个建议反馈给小李团队,他们觉得可行。于是产品设计分成了“基础模式”和“智能模式”。基础模式就是简单的语音指令,稳定可靠;智能模式才开启情感识别、个性化推荐这些高级功能。
但技术难题还是没完全解决。情绪识别的准确率提升到了百分之八十五,但离团队目标的百分之九十五还差得远。卡在最后的百分之十,就像爬山最后那段最陡的坡,看着近,爬着难。
那几天,小李团队天天熬夜,黑眼圈一个比一个重。小张有次在调试时趴在桌上睡着了,手里还攥着电路板。我看着心疼,但又帮不上忙——技术的事,我真不懂。
转机出现在一个周末。孙子来我家玩,看见桌上那个半成品的音箱,好奇地摆弄。他对着音箱说:“小音箱,我爷爷今天不高兴。”
音箱没反应——它还没装外壳,处于调试模式。
孙子又说了一遍,这次加了动作——他皱着眉头,撅着嘴,一副生气的样子。
我忽然想到什么:“安安,你怎么知道爷爷不高兴?”
“因为爷爷不说话啊,”孙子理直气壮,“爷爷高兴的时候会唱歌,不高兴的时候就坐着发呆。”
这句话像道闪电劈进我脑子里。对啊!情绪识别,光听声音够吗?人表达情绪,不止靠语言,还有表情、动作、甚至沉默!
我赶紧给小李打电话,把这个发现告诉他。电话那头沉默了好一会儿,然后小李激动得声音都变了:“陆老师!您这是...这是给我们开了扇新窗户啊!多模态识别!声音+图像+行为分析!我们怎么没想到!”
接下来的发展,我就跟不上了。什么“卷积神经网络”,什么“多传感器融合”,什么“跨模态注意力机制”...小李在电话里滔滔不绝,我只能嗯嗯啊啊地应着。
不过效果是实实在在的。团队重新调整了技术路线,在音箱上加了个小摄像头(可以手动关闭保护隐私),结合声音和面部表情做情绪判断。测试结果出来,准确率飙升到百分之九十二。
虽然还没达到目标,但已经是质的飞跃。小李说,剩下的百分之三,可能需要更长时间的数据积累和算法优化。
产品最终版出来那天,团队在我家做演示。这次我特意用老家方言测试,说了一句挺绕口的话:“今儿个心里头不痛快,想听点舒坦的。”
音箱安静了三秒,然后响起了一段二胡曲《二泉映月》,音量适中,曲调低沉婉转。接着音箱说:“检测到您情绪低落,这首曲子也许能表达您的心情。如果您需要倾诉,我也可以陪您聊聊天。”
那一瞬间,我鼻子有点酸。不是被音乐感动,是被这种“被理解”的感觉触动。一个机器,居然真能听懂人的情绪,还知道怎么回应。
“成功了!”小李跳起来,跟团队成员击掌庆祝。小张这个平时最沉稳的技术宅,也激动得眼圈发红。
孙子在旁边拍手:“爷爷,小音箱变聪明了!”
我摸摸他的头:“不是小音箱变聪明了,是这些哥哥姐姐变厉害了。”
庆功宴上,小李举杯敬我:“陆老师,这次要不是您,我们可能还在死磕声音算法。您那句‘人表达情绪不止靠声音’,简直是一语惊醒梦中人!”
我跟他碰杯:“我也就是瞎猫碰上死耗子。你们能举一反三,把想法落地,这才是真本事。”
现在,第三代智能语音助手已经进入量产阶段。预定量超出了团队预期,有好几家大公司来谈合作,想用他们的情感识别技术。
小李团队也从最初的三个人扩大到二十多人,搬进了正式的办公室。但他们每周还是会来我家“报到”,有时是请教问题,有时就是纯聊天。
上周他们来,带来个新点子——想做个“老年人情感陪护机器人”,不仅能识别情绪,还能主动问候、提醒吃药、甚至讲故事解闷。
我听了直点头:“这个好。现在空巢老人多,有个能说话的伴儿,总比对着墙发呆强。”
但我也提醒他们:“技术再先进,也不能替代真人陪伴。机器人是补充,不是替代。这个定位一定要清楚。”
小李认真记下了。他现在越来越有企业家的样子了,考虑问题更全面,做事也更沉稳。
昨天孙子问我:“爷爷,你以后也会有个机器人陪吗?”
我想了想说:“爷爷有你就够了。机器人再聪明,也比不上我孙子一个笑。”
小家伙听了,扑过来搂着我脖子:“那我天天陪爷爷!”
我抱着他,心里满满的。
是啊,重生一回,我见证了技术从简单到复杂,从冷冰冰到有温度。虽然我自己搞不懂那些算法代码,但能看到年轻人把这些技术用在正地方,让科技真的服务人、温暖人,这就够了。
毕竟,会翻身的咸鱼,那也是咸鱼。而且我现在不仅是条会翻身的咸鱼,还是个虽然不懂技术但能指点技术方向的老咸鱼呢!