×

Loading...

对于自动驾驶的设计者而言,这类似于面对电车难题造成的道德困境,并没有完美的解决方案.哲学家伦理学家做了很多讨论 ,目前为止获得最多点赞的是: 阿奎那:双重效应说---一个行为的道德性质应该基于其意图和直接后果来评判,而不是其间接或远期后果。

这个概念源自于中世纪哲学家托马斯·阿奎那的思想。
Report

Replies, comments and Discussions:

  • 枫下家园 / 我爱我车 / 这个周末试了几次tesla的 FSD, 真心来讲,非常好,我一次也没有介入,每次都能安全到达目的地! 而且自动泊车功能也是非常完美。 就是一点,输入目的地,有时候不能自动导到泊车场,而是导到了building的后面。 看来应该在地图上选泊车场就好了 +1
    • 拥有一台特斯拉,离死就不远了,继续你的试验,继续你的探索。 +2
      • 呵呵,你说话总是那么夸张。
        • 不是夸张,而是充满恶意诅咒 +7
          • 老家有病症,时好时坏,显示多重人格,不过都比较容易鉴别 +8
            • 我倒是觉得老家为人真诚,不攻击具体人,只是表达自己观点,警惕公权力,比揉脸很多人都更懂言论自由,民主法治 +1
              • 拉倒吧,人先要学会善良有道德,再去讨论民主法治自由,连修身都做不到,就别滔滔不绝的想要平天下
              • 他自己上班闲着无聊, 拉大家陪他聊天, 问题是他说的大部分都是假的。 污染版面,浪费大家时间。 打个比方, 如果你跟TNT的故事是你自己编的, 看大家骂不骂你 :) +1
                • 楼上会狡辩说他没有违法,是言论自由,你可以去法院告,这就是他自恃可以污蔑大统华的理由
        • 几乎发生车祸。FSD 就是自动驾驶,不过是换个名字而已吧了。
          Opinion: Tesla includes 'supervised' in the name of its self-driving program for an important reason. This video shows why.
      • 同意老家,用了这个功能到底是为啥,是准备躺下睡觉还是时刻紧盯,前者100个里有几个能睡踏实的,后者还不如自己开,时刻提心吊胆感觉是一只靴子永远没落地,稍微走神,万一介入不及时,结果和前者出事一样。
        • 分析的合情合理。
    • 建议开一趟大瀑布,测试一下自动驾驶,看看效果如何
      • 高速上一点儿问题没有,fsd 在local会更难一些 +2
        • 高速上现在所有新车基本都可当自动驾驶,只是我车总提醒我take steering +1
          • 这个FSD,可以自己上高速, 下高速,自动变道, 自动超车 +1

            对, 就是过一分钟如果手不在方向盘上,就提醒一下。挺烦人,不过系统不是百分百成熟,这一提醒是必须的。
    • 问题是只要有一次系统误判你的小命就玩完了,如同将自己性命拿来作为赌注的豪赌,一次只要一次,没有后悔的机会。但一旦发生事故,Tesla一定会告诉你这个自动驾驶系统只是一个辅助系统,您负主要责任,Tesla没有任何责任,但那个时候死人是不会辩解的。 +3
      • 传统车也会有各种故障,各种电车非智驾状态出的故障事故也不少。自动驾驶终究会来临,看什么时候了。如果自动驾驶的水平达到L4,时机就成熟了 +2
        • 我觉得出事让厂商负责的智驾永远不可能实现 +1
          • 请说说你的理由
        • 有人想要早死,就满足他的愿望吧。
      • 赌是有输赢的,但问题是赢一点cool的感觉,输一条命?我觉得就是免费帮别人测试,对了,还不是免费 +1
    • 跟敢不敢坐别人开的车类似,有人只敢自己开,有人可以新手旁边的副驾驶呼呼大睡。这些差异可能嵌在dna里,重新投胎才能改的 +1
      • 坐在人旁边开和让电脑开不一样的,司机是人,小命是绑在一起的,碰到高速有人突然横穿马路,边上前后两辆18轮,人开一定会刹车,刹不住就撞人。AI不一定,它的设计就不是用来撞人的,这种情况会急刹车,刹不住只能变道夹到两辆18轮中间,极有可能引发二次事故。
        • 对于自动驾驶的设计者而言,这类似于面对电车难题造成的道德困境,并没有完美的解决方案.哲学家伦理学家做了很多讨论 ,目前为止获得最多点赞的是: 阿奎那:双重效应说---一个行为的道德性质应该基于其意图和直接后果来评判,而不是其间接或远期后果。
          这个概念源自于中世纪哲学家托马斯·阿奎那的思想。
          • 根据双重效应说,同一行为可能会产生两种不同的效果:一个直接的效果和一个间接的或远期的效果。这两种效果可能有着截然不同的道德性质。阿奎那强调的是,我们应该特别关注行为的直接意图和直接后果,而不是被其可能的间接或远期后果所左右。

            举例来说,假设有一个医生给一个病人注射一种药物,这种药物可能会减轻病人的疼痛,但也有可能导致他的死亡。如果医生的直接目的是为了减轻病人的疼痛,而病人的死亡是一个不可预测的并且非直接的结果,那么根据双重效应说,这个行为可能是道德上正当的。

            然而,如果医生的直接目的是为了杀死病人,那么这个行为就是不道德的。因此,阿奎那的双重效应说强调了意图和直接后果在道德评判中的重要性,而不是仅仅依赖于行为的间接或远期后果。

            • 在这种情况下,如果自动驾驶汽车刹车无法避免与行人相撞,但是有可能避免与行人相撞的同时却会导致更严重的事故,那么根据双重效应说,汽车的行动可能会被认为是合理的。因为其意图是为了减少伤害,而直接后果是尽量减少事故造成的严重后果。

              虽然这种选择可能会导致不可避免的伤害,但它基于最大限度地减少损失和伤害的原则,从而可以在道德上得到一定程度的合理化。但需要强调的是,这种决策应该是在没有其他更好的选择的情况下做出的,而且应该尽可能地通过技术和设计来避免这种困境的发生。

              总之,在这样的情况下,自动驾驶汽车的决策可能是一个艰难的道德抉择,需要综合考虑多种因素,以最大程度地减少伤害和损失。

        • 在这种情况下,如果不撞人可能导致更严重的交通事故,这进一步增加了道德决策的复杂性。阿奎那的双重效应说可以提供一种框架来解决这个困境。在考虑这一情景时,首先要考虑到自动驾驶汽车的设计目的是确保尽可能地减少伤害和事故。
    • 咱老了也能靠特斯拉FSD 行动自如, 感谢科技时代, 感谢Elon Musk. 特斯拉本季度交付量大跌,择机100元买入股票。 +3
      • 真很,今天特斯拉股票已经跌了5%,还要再给腰斩。
    • 现在电动车开始走下坡路了,更新太快,不保值。想想三年前的电动车,被淘汰的感觉。
    • 哥有一次在万锦广场被倒车的广东大妈撞了,
      俺的车停在后面拼命按喇叭也没用,她的理由很奇葩,说是我的喇叭声不够大;倒是不严重,也没要求对方赔钱就放她走了;如果是FSD自动驾驶,这种事故就断绝了吧?AI在怎么地,总能识别后车的喇叭声吧?所以我还是觉得FSD普及之后会极大降低事故率
      • 这个不用自动驾驶,辅助驾驶足够。现在很多油车都有自动刹车功能。
    • 现在的自动驾驶就是个鸡肋不如的东西,放手让它全部掌控吧你不敢,自己盯着吧又累还注意力不集中,一次失误就足够了 +1
      • FSD = 自动驾驶。马斯克也是骗子!杀人不眨眼!
        • 一百多年来汽车杀死了无数人,发明汽车的是杀人不眨眼的骗子
          • 过去时了,请不要再提他了
            • 车祸都是过去时了?不会再有了?
        • 哈哈,你终于明白了,马一龙最会manipulation 了。凡是抱怨特斯拉自动驾驶的,即使死了人,马一龙也用各种手段让他们闭嘴。不是说自动驾驶不应该,但是技术绝对需要改进,没有到可以完全信赖的地步。
          • 电子系统,没有机械系统可靠,没有机械系统安全。丰田汽车当年在刹车系统中融合了电子控制系统,结果造成几个家庭全军覆没的惨剧!马斯克假装眼瞎,继续祸害老百姓。
          • 老马吹nb那是一流的, 而且,还有许多捧臭脚的。 其实这些都不是问题, 问题是当时许多捧臭脚的在互联网都是有头有脸的人物, 这就是问题了。
            • 是啊,吹牛吹上天那么多卫星和回收火箭,他吹牛本事真是自古第一人。 +1
              • 你混论坛时间太少了,我都不屑于说你。 就说,地球空地那么多, 哪儿不必火星强,去火星干啥去呢? 还有那种真空管高速火车, 你跟我说怎么实现。 有些人就是蹭声量的, 时间长了,大家都看明白了。
                论坛每个人都不一样, 有些人就纯聊天, 有些人比较较真,如此而已。
                • 才一个来回你就开启对人不对事模式啦,持久度要努力提高下了。 +1
                  • 既然开始键政, 怎么可能对事不对人呢,所以我说你 你混论坛时间太少了。 我早就说了,必须怼人。 要不然, 出来一个老家,就把你给累吐血了。
    • 好好一个题目 被上面一堆跟不上时代的垃圾污染了. +4
      • 网络喷子到处都是, 不必计较也不必在意。。。 +2