设置

关灯

第6章 鲲鹏、华微合并案(四)(第2/4页)

    后,论坛的官方照片都会发去大家邮箱的哈”

    她正好在经鸿斜前方,领导那边儿,经鸿离得近,便笑道“谢谢。”不翻脸的时候,他一向都显得随和。

    周昶也表面随和,不过,经鸿是平起平坐的随和,而周昶则有种高高在上的随和。

    拍照过后,主论坛开讲。

    经鸿是第三个上台的。他穿着深色的西装和皓白的衬衫,正了正麦克,道“尊敬的郑书记,尊敬的吴部长、王部长,各位it的同仁,各位新老朋友,大家好。”

    台下顿时响起掌声,颇为热烈。

    经鸿见了,笑笑,说“有点儿受宠若惊。希望我接下来的几分钟能不虚这些掌声吧。”他一贯地有礼有度,给人好感。

    待现场重新安静,经鸿才进入了主题“过去,对人工智能的探究主要集中在三个层面对社会的价值、对企业的价值,以及ai的伦理风险。今天我主要想讨论讨论另外一个鲜少被注意到的方面,就是算法黑箱的打开。”

    经鸿看见台下的人全都露出了兴趣。

    “算法黑箱”,台下的人都不陌生。人工智能模仿人脑进行学习,比如,人类交给ai大量猫的图片、狗的图片,它就可以层层提取对象特征,自己学会“什么是猫”“什么是狗”,可人类目前不能解释ai的工作原理,不能明白机器为何要做某些事情、为何得出某些结论。根据输出,有些思路简单易懂,比如猫狗的轮廓、颜色,可很多时候并非如此也就是说,人类看不懂。它给了人类空前的可能,也给了人类无尽的困惑。有人说,让 ai 向人类解释一个东西,相当于让人类向狗解释一个东西,听着就让人沮丧。

    可人类历史充分表明,只有一个决策可以被解释、被分析,人类才能充分了解它的优点和它的缺陷,进一步评估风险,知道它在多大程度上能被信赖。然而现在,每个学者的头脑中都萦绕着几个问题我们能信任 ai 吗我们能在多大程度上信任 ai 我们能在生死攸关时信任 ai 吗

    台上,经鸿又说“今年,dara提出了可解释ai的概念,何积丰院士也提出了可信ai的概念。目前各国科学家正致力解开黑箱、解释算法,而泛海的研究院也愿意分享一些成果。我接下来的演讲将主要分为三个板块,第一个是各国的最新政策和各国的研究现状,第二个是泛海的一些成果以及泛海的一些工具这些工具泛海都会在即将发布的可信ai白皮书中分享出来,最后一个则是发展趋势和发展建议,也就是对业内的倡导。”

    他的语气不疾不徐。

    中间有次,经鸿目光无意中扫过周昶,而后发现,周昶竟然还挺认真的。

    演讲的最后,经鸿再次语气坚定地道“对可解释ai、可信ai的强调是ai发展的必然趋势,否则算法安全、算法责任等问题都无法解决。我们并不悲观在人类的文明当中,往往实践先于理论。很多东西被发明时,发明者都并不清楚发明物的工作原理,比如火药。火药被发明时,发明者绝不知道产生二氧化碳的化学式。因此我相信,凭借人类的智慧,我们终会彻底揭开ai的神秘面纱,让人工智能发挥出最大的价值。谢谢大家。”

    这回掌声更加热烈了,看起来,经鸿完全做到了“接下来的几分钟能不虚这些掌声”。

    演讲每人是20分钟。经鸿的演讲之后是一个短暂的茶歇
    (本章未完,请翻页)