15 条回复  ·  1648 次点击
loading 小成 前天 19:30
大模型你问答他有时可以犯错(很常见吧) 智能驾驶呢,你允许他犯错吗?
yoshiyuki 小成 前天 20:12
前面肉眼可见的几个回复连 L3 的定义都没搞明白。 从工程上来说,路上大量的 L3 在跑了,L4 出租车也不罕见,快递小车更是比比皆是,不是吗? 从法律上来说,没有做到,L3 指的是有条件的自动驾驶,允许驾驶者短暂脱手(前文也是根据这个讲的,路上有的是脱手开智驾的司机),但是在需要接管未得到响应时,要做到自动靠边停车,期间发生的故障由车企负责,而不是事故前 0.1 秒退出智驾,现在定义的差距就在这个法律层面里
LandCruiser 小成 前天 20:16
说点不需要懂技术也能明白的简单推理吧,AI 能代替专业程序员->任何人都可以通过 AI 编写任何程序->软件企业倒闭->属于软件企业的 AI 企业倒闭->自己不会打败自己->AI 不能代替专业程序员
Waschl 初学 昨天 14:54
和自动驾驶一样,分场景分任务。 考虑到大模型的应用确实存在一些“不会产生致命后果”的场景,我认为可以定义为 L3.
zomco 初学 昨天 15:36
自媒体天天吹 AI 要干掉 XX 行业,那不得不是 L5 了
ritziiiiii 初学 4 小时前
只要马路上没有跑出来一个飞机,那 L3 简直轻轻松松。 问题在于马路上能跑出来一些大模型不认识的东西,他们可能认为这东西只是一个移动的障碍物而不是危险的东西。 比如:一个正在微微着火的油罐车,Ai 可能认为这就是停在路边的一个油罐车,直接缓慢通过即可。 Ai 并不知道这是一个危险的东西,即便他认得出油罐车,也知道油罐车是危险的,但他不懂物理。 我认为这也是没有 L4 的根本原因,L3 实际已经能轻松达到了,未来 FSD 会无限接近 L4 ,只有世界模型/物理模型的出现才能打破这一局面,让 Ai 理解物理学,理解整个世界才行。
12
返回顶部