AI的未来发展之路

原创内容,转载请注明:  [http://www.ssdfans.com]  谢谢!

假设一辆自动驾驶的汽车正在驶向一座桥,坡度很合适,但是桥面上有冰,还有一辆翻车的公交车挡住了车道,公交车里全是小孩。

孩子们正在通过窗户撤离,并在人行道四处打转。即使是反应速度比人脑快很多的自动驾驶汽车也来不及停下来。车子向一侧掉头,可能会从桥上掉下去,转向另一侧则会撞入一撞土墙,无论哪种情况很可能造成乘客的伤亡。这辆车是完全自主的,即使时间充足,它也没有人的自控力。这种情况下,它应该怎么做。

这是一个著名伦理道德思想实验“手推车问题”的版本。大众的呼声是站在一个功利主义的立场的:汽车应该选择挽救大多数人,即使是以自己车上的乘客为代价。

但如果它是你的车呢?如果车上坐的都是你的家人呢?你会购买一辆明知道可能会杀死你和你的亲人以拯救别人的汽车吗?至少梅赛德斯—奔驰认为你不会,并且已经采取了自动驾驶汽车保护乘客的立场。对于司机来说,这种回应是有道理的。没人会期望有人为了救人故意把车开进墙。但是自动驾驶汽车却无法有这种感觉。作为公民,我们是否应该和自动驾驶汽车共享道路,面临着它可能杀死路人以保护乘客的威胁。如果这种问题是来自于汽车传感器或编程中的错误,而不是天气或其所能控制之外的其他力量,那么答案会有所不同吗?

自动驾驶困境是智能系统的出现引发的严峻的公共政策问题之一,但它绝不是唯一的问题。芯片以及系统的设计师和制造商很难控制高级自动化对劳动市场或第三方数据收集的法律环境的影响。然而,在多数情况下,系统设计师要么执行政府法规,在没有相关法规的情况下,就需要制定或为固有的道德和政策决定进行辩解。就自动驾驶汽车而言,美国国家公路交通安全管理局已经为汽车制造商和监管机构的实践提出了指导方针,在制定最终规则前允许技术发展。制造商的行为必将在未来塑造监管环境方面发挥重要作用。

更多的智慧为现实世界带来更多后果

这些困境在某种程度上意味着智能系统日益复杂化。没有人真正关心音乐推荐引擎是否把Duke Ellington和Robillard混为一谈。然而,随着系统功能变得更强大,从推荐癌症治疗到确定哪些刑事被告有资格获得假释或保释,他们的行为可能具有真实世界的后果。

因为任何数据收集都是有限的,电子前沿基金会首席计算机科学家Peter Eckersley认为,忽略变量偏差可能是无法避免的。他说,这绝对是正在使用的算法的一个功能,而不仅仅是训练集的潜在偏差。根据美国公民自由联盟高级政策分析师杰伊斯坦利的观点,至少有可能存在偏倚的数据和偏倚的算法,因此必须以透明的方式部署具有公共政策影响力的算法。政府官员,纳税人和受影响的人员需要能够理解和挑战算法决策。为了应对这些挑战,设计师需要建立审计线索。满足这一要求实际上困难得多;今天,智能体系通过其获得“正确”结果的能力来判断,但是给定结果的具体基础可能并不明确。
机器和人类之间的接口存在一些潜在问题。如果机器学习系统是使用专家标记的数据进行训练的,那么它很可能会将这些专家的偏见带入自己的计算中。从交通站点到纽约时报的讣告页面,我们有充分的理由怀疑人为生成的数据集存在偏差。另一方面,如果系统仅仅被赋予一个数据集并被告知寻找模式,那么它很容易被忽略变量偏差。该系统只能从它实际拥有的数据中得出结论,这些数据是数据集创建者认为很重要的数据。这些变量之间的相关性可能很有用,但不一定会显示任何有关潜在原因的信息。

斯坦利承认,在执法和政府项目管理等情况下,对智能系统的使用态度各有不同。决策者存在偏见,即使是一种不太完美的算法也可能是一种改进。另一方面,有证据表明决策者会使用算法结果来证明和他们认同的决定,而忽略他们不认同的建议。

保证数据集和结论

审计跟踪对维护系统的完整性和安全性也至关重要。随着智能系统通过人类进行更敏感的任务,恶意破坏或者利用他们的动机将会增加。如果一个面部识别系统决定哪些航空公司的乘客将受到更严格的检查,那么有能力访问训练数据库的人可以使特定的个人或特定特征或多或少地引起注意。

训练数据库的完整性在人类创建和维护大部分静态数据集的应用程序中相对容易受到保护。目前的大多数应用都属于这一类。然而,展望未来,许多物联网应用涉及将来自不同来源的大量数据收集到中央存储库中,并自动进行分析。个人设备上的缺陷传感器或恶意用户是否可能损坏此类数据集?如果发现了非法设备,是否可以在不中断其他设备的情况下锁定系统?他可以清除所有数据吗?大量数据泄露意味着企业需要投入更多精力来解决这些问题。

以最少的人为干预来提供强大的安全性需求,说明依赖于物理不可克隆功能的安全方案价值。例如,在去年的Semicon West Imec技术论坛上,Thomas Kallstenius提出了一个取决于MOS晶体管阵列击穿特性的关键机制。 单个晶体管的击穿是随机的,因此阵列中的图案既不可预测也不可克隆。它唯一标识独立于所有者或安装位置的设备。

边缘计算是否安全?

在中央存储库中收集大型数据集也引发了重大的隐私问题, Facebook /剑桥Analytica丑闻也强调了这一点。正如马里兰大学的金哲金所说,公司有动力收集尽可能多的数据,因为他们的用户愿意给他们,在未来某个时候这些数据会有用。

能够访问大量数据的公司具有明显的市场优势。谷歌的图像识别和机器翻译工具的优势部分在于大量用户使用它们,从而为Google提供稳定的数据流。Facebook是广告商的宝贵平台,因为数十亿人希望与他们的朋友使用相同的网络。

而滥用数据的后果由个人用户承担。大公司所面临的风险包括身份盗用,信用卡欺诈以及欺诈性广告。拥有更大数据库的智能系统可能会潜在地对弱势人群进行有针对性的攻击,针对高速公路或电网的基础设施攻击等等。

用户越来越意识到数据隐私问题,因为智能系统进入了越来越多地涉及隐私问题的应用。Alexa可以听到一定范围内发生的任何事情。 智能电表可以告诉你是否在家,甚至可以告诉你在那里做什么。更多消息灵通的用户可能会要求更严格的隐私标准监管和实施,并且如果他们担心它会被滥用或与不受信任的第三方共享,他们并不愿意共享数据。边缘计算已经可以降低功耗并缩短响应时间,可以通过将敏感数据留在用户手中来帮助缓解这些担忧。

然而中央计算提供了真正的好处。具有更多数据的算法可以提供更准确的结果。 更大的数据样本可以帮助减少偏差。可以相互通信的自动车辆可以更有效地共享道路信息。在每个应用程序中,系统设计人员需要平衡本地和集中式计算的优点和缺点,以实现性能优化和用户信任。

为AI未来制定法规

政府监管总是落后于技术发展是一个真理。欧盟的“通用数据保护条例”在2016年颁布,那是进入社交媒体时代第十年。在美国,参议院第2217号法案“人工智能法令的未来”是联邦立法中处理人工智能影响的首批法案之一,如果仅通过建立研究委员会的非常有限的程序。华盛顿参议员玛丽亚坎特韦尔,赞助商之一,指出政策制定者还不知道AI技术将如何使用。 各国正在规范在其境内部署自动驾驶汽车,但几乎无法控制洲际数据流。

未来几年可能为系统设计人员和公民塑造人工智能的未来提供了最好的机会。

原文链接:https://semiengineering.com/preparing-for-ai/

分类目录 未分类.
扫一扫二维码或者微信搜索公众号ssdfans关注(添加朋友->点最下面的公众号->搜索ssdfans),可以经常看到SSD技术和产业的文章(SSD Fans只推送干货)。
ssdfans微信群介绍
技术讨论群 覆盖2000多位中国和世界华人圈SSD以及存储技术精英
固件、软件、测试群 固件、软件和测试技术讨论
异构计算群 讨论人工智能和GPU、FPGA、CPU异构计算
ASIC-FPGA群 芯片和FPGA硬件技术讨论群
闪存器件群 NAND、3D XPoint等固态存储介质技术讨论
企业级 企业级SSD、企业级存储
销售群 全国SSD供应商都在这里,砍砍价,会比某东便宜20%
工作求职群 存储行业换工作,发招聘,要关注各大公司招聘信息,赶快来
高管群 各大SSD相关存储公司高管和创始人、投资人

想加入这些群,请微信扫描下面二维码,或搜索nanoarchplus,加阿呆为微信好友,介绍你的昵称-单位-职务,注明群名,拉你进群。SSD业界需要什么帮助,也可以找阿呆聊。