《彭博商业周刊》把2015年定为人工智能发展的元年,因为在那一年,计算智能、感知智能、认知智能发展有了明显的提升。在人工智能领域,中国不仅没有缺席,而且正在积极引领变革。埃森哲技术实验室(Accenture Technology)集团技术总监Adam Burden在2017年香港RISE创业者大会上表示,面对资本投资和降低劳动力成本的迫切需求,美国和中国是全球范围内最积极寻求人工智能运用的国家。
在“未来已来”的狂欢气氛中,《时代周刊》刊发的一篇文章认为,人们倾向于将科技进步视作理所当然,却对“弗兰肯斯坦”式的道德困境浑然不觉:
“在设计和商业讨论环节,我们很少会花时间探讨这个项目会给世界带来哪些潜在的负面影响。相反,我们在进行发明创造时,往往只是本着一个极为简单的理念:我们之所以创造它,是因为我们能。在多数情况下我们之所以发明了新技术,是出于某种需求,或者是为了解决一个问题。但有时从事后来看,我们反而是创造出了新的问题。”
文章指出,呆板的工科思维只会带来短视的创造,因此所有重视社会道德的科技公司都应该聘用一些具有人类学、心理学和哲学背景的人才。
在斯坦福大学获得电子工程学士学位和计算机科学硕士学位的Tracy Chou在校时曾是一位典型的“工科女”,在方程式和代码中获得乐趣,认为人文课程既枯燥又无意义。但在她毕业后进入Quora,成为这一问答网站的早期软件工程师之后,她发现代码、计算和数据看似机械中立,实则不然。“技术产品和服务由人类所创造,在创造产品和服务的过程中,人类又把他们的偏见和有缺陷的思想放入其中,这反过来塑造了人类行为和人类社会,某些时候甚至达到了一种令人恐惧的程度。”她在Quartz的一篇专栏文章中这样写道。
在亲自参与建立Quora的过程中,Chou发现技术问题很多时候其实是道德和哲学问题。在树立网络社区规范时,一个核心出发点就是决定人的本质到底是善良的还是邪恶的、保护社区成员不被骚扰冒犯和保护言论自由孰轻孰重:
“如果大多数人本质是善良的,那么我们就会把产品设计以信任用户为出发点,在极端情况下控制糟糕的言行;如果他们的本质是邪恶的,我们就最好把所有的用户贡献和编辑内容交由仲裁人审核。
我们激烈讨论了公共讨论的含义:如果我们信任用户,就会有很多‘低素质’用户涌入平台(这样标签化用户又在多大程度上可以说是合适的呢?),这对我们的社区会带来怎样的负面影响?但如果我们不够信任Quora成员,总是偏向那些我们认为是‘高素质’的老用户,我们是否会变成一个固执己见的、僵化的、守旧的小众社区,反对新人和新鲜思想?”
之后在Pinterest工作的四年多时间里,Chou又在设计信息流的过程中遇到了“什么是优质内容”的困境——是那些帮助用户拓展视野发现新知的内容,他们喜欢的内容,还是最能吸引流量的内容?
当下企业面临的道德困境还有很多。被很多人忽视的一个事实是,新技术、新产品的出现不仅在改变人们的生活,也在私人生活和社会生活中创造许多前所未有的问题。随着技术革新的速度越来越快,我们将发现科技进步不仅只是理所当然地赋予人类更多的自由,甚至也是对人类存在本身的质疑和对人类文明与社会基础的挑战。