胡泳|相信人,还是相信机器?——重新思考数字化之九( 五 )


人工智能并不一向这样 。 从一开始 , 对于人工智能的可理解性 , 或可解释性 , 就存在两派观点 。 许多人认为 , 建造根据规则和逻辑进行推理的机器是最有意义的 , 这样将使它们的内部运作对任何愿意检查某些代码的人来说是透明的 。 其他人则认为 , 如果机器从生物学中获得灵感 , 并通过观察和体验来学习 , 那么智能将更容易出现 。 这意味着要把计算机编程转给机器 。 与其由程序员编写命令来解决一个问题 , 不如由程序根据实例数据和所需输出生成自己的算法 。 后来演变成今天最强大的人工智能系统的机器学习技术 , 遵循的正是后一种路径:机器基本上是自己编程 。
胡泳|相信人,还是相信机器?——重新思考数字化之九
文章图片
自学习机器的算法概念受启发于进化过程中的遗传修饰
任何机器学习技术的工作原理本质上比手工编码的系统更不透明 , 即使对计算机科学家来说也是如此 。 这并不是说 , 所有未来的人工智能技术都将同样不可知 。 但就其性质而言 , 深度学习是一个特别黑暗的黑盒子 。
一旦面对黑盒子 , 就产生了人对系统的信任问题 。 而温伯格恰恰没有深入处理人对人工智能的信任 。 比如 , 即便“深度患者”的诊断比人类医生更准确 , 但要是它无法解释自己给出的判断 , 医生和患者会对它表示信任吗?
人类的信任往往基于我们对其他人如何思考的理解 , 以及对这些思考的可靠性的经验了解 。 这有助于创造一种心理安全感 。 而AI对于大多数人来说仍然是相当新颖和陌生的 。 它使用复杂的分析系统进行决策 , 以识别潜在的隐藏模式和来自大量数据的微弱信号 。
即使可以在技术上解释 , AI的决策过程对于大多数人来说通常都是难以理解的 。 更何况目前的人工智能发展是在朝着不可理解的方向加速前进 。 同自己不明白的事情互动会引起焦虑 , 并使我们感觉我们失去了控制 。
芯片制造商英伟达推出的自动驾驶汽车 , 看上去与其他自动驾驶汽车没有什么不同 , 但它实际上迥异于谷歌、特斯拉或通用汽车所展示的任何东西 , 而是显示了人工智能的崛起 。 英伟达的汽车并不遵循工程师或程序员提供的任何一条指令 。 相反 , 它完全依靠一种算法 , 这种算法通过观察人类的行为而学会了自己驾驶 。
胡泳|相信人,还是相信机器?——重新思考数字化之九
文章图片
英伟达自动驾驶系统眼中的世界
让一辆车以这种方式行驶是一项令人印象深刻的壮举 。 但它也有点令人不安 , 因为并不完全清楚汽车的决定是如何做出的 。 来自车辆传感器的信息直接进入一个巨大的人工神经元网络 , 该网络处理数据 , 然后提供操作方向盘、刹车和其他系统所需的命令 。 其结果似乎与你所期望的人类司机的反应一致 。
但是 , 如果有一天它做出一些出乎意料的事情——比如撞上了一棵树 , 或者在绿灯前停止不动呢?按照现在的情况 , 可能很难找出它这样做的原因 。 该系统是如此复杂 , 甚至设计它的工程师也难以分离出任何单一行为的原因 。 而且你也不能向它提问:没有办法来设计一个系统 , 使它总是能够解释为什么它做那些事 。
除非我们找到方法 , 让深度学习等技术对其创造者更容易理解 , 对用户更负责任 。 否则 , 将很难预测何时可能出现失败——而失败是不可避免的 。 麻省理工学院研究机器学习应用的教授托米·贾科拉说:“这是一个已经凸显意义的问题 , 而且在未来它将变得更有意义 。 无论是投资决策、医疗决策 , 还是可能的军事决策 , 你都不希望仅仅依靠‘黑盒子’方法 。 ”