沈向洋成首位视频聘任的清华教授 呼吁进行可解释的AI研究

[摘要]今天早上,离开微软的沈向洋正式续聘清华,在清华讲了第一堂课。 去年11月沈向洋离职微软后,就在本周前几天,沈向洋续聘清华,在清华的tit
今天早上,离开微软的沈向洋正式续聘清华,在清华讲了第一堂课。

去年11月沈向洋离职微软后,就在本周前几天,沈向洋续聘清华,在清华的title是清华大学高等研究院双聘教授。

清华大学校长邱勇说,这是清华大学历史上第一次以视频会议的形式举行聘任仪式,校长连线发聘任书。

这次聘任仪式的两端分别在中美两地,校长和工作人员们在位于北京的清华大学工字厅,而沈向洋博士在位于西雅图的清华大学全球创新学院(GIX)大楼127室。

邱勇校长还开玩笑说:“我也是第一次跟向洋博士以这种形式见面,向洋博士在屏幕上很帅,比以前都帅。”

之所以是“续聘”,是因为这其实是沈向洋在清华的第二场聘任仪式。2005年,沈向洋首次受聘清华高等研究院双聘教授,距今已经过去了15年。

聘任仪式之后,借助Zoom直播平台,沈向洋进行了主题为Engineering Responsible AI的课程演讲。

沈向洋提到,AI目前在社会各界中都有应用,人们借助AI来做决策。但现在,AI已经在做我们不懂的决策。

许多AI系统就像黑箱一样,AI做了决策,但我们不知道它为什么这样做。

因此,负责任的AI是很重要的,每个创造AI的人都应该了解一些AI创造的原则。

之后沈向洋重点讨论了可解释的AI和AI的偏差(bias)

关于可解释的AI,沈向洋举了一个AI分辨哈士奇和狼的例子。

在以下6张照片中,只有左下角的一张被识别错了。

但其实,AI可能并非像我们理解的那样,通过动物的外形来辨别的,它的辨别方法可能是这样:

AI的判断并非通过图片中的动物部分,而是通过图片中除了动物之外的部分进行的。

因此,可解释的AI非常重要,不然你永远都不知道AI可能是用这种作弊的方法来判别哈士奇和狼的。

而关于偏差,沈向洋举了性别偏差的例子。

曾经有人发现一个人脸识别系统里,识别不准的都是女性、不化妆、短发、不苟言笑的照片,而其他人就相对更准一些。

而在词嵌入中,问题更为明显。

同一段描述,当文中用的是she/her等女性词汇时,AI判断这段文字描述的是老师;

而当里面的she/her变成he/his/him等男性词汇时,AI就会判断这段文字描述的是律师。

一个典型的例子是“He’s Brilliant, She’s Lovely”。

在一个词嵌入系统中,当主语分别是“她(she)”和“他(he)”时,出现的词是不一样的:

她是“姐妹”,他是“兄弟”;

她是“护士”,他是“大夫”,谈到这里,沈向洋吐槽说,你们没发现哪里不对么?

她是“家庭主妇”,他是“程序员”;

她说“OMG”,他说“WTF”;

她是“女权主义者”,他是“现实主义者”;

她“怀孕”了,他“肾结石”了;

……

这是词嵌入里的偏差,很多时候人们想都不想,就直接用了。

最后,沈向洋教授总结说,我们是第一代和AI共存的人类,我们得决定怎么构建AI、怎么用AI。我们能接受一个AI做的决定、我们人类无法理解的世界吗?

One More Thing

最后,沈向洋还表达了他对NLP领域的期待。

他说,CV现在还很火,但未来十年自己看好NLP:

“懂语言者得天下。”

这是沈向洋全程唯一一句中文。




免责声明:

本站系本网编辑转载,会尽可能注明出处,但不排除无法注明来源的情况,转载目的在于传递更多信息,并不代表本网赞同其观点和对其真实性负责。如涉及作品内容、版权和其它问题,请在30日内与本网联系, 来信: liujun@soft6.com 我们将在收到邮件后第一时间删除内容!

[声明]本站文章版权归原作者所有,内容为作者个人观点,不代表本网站的观点和对其真实性负责,本站拥有对此声明的最终解释权。