特码王中王2469 香港—133期香港王中王特码—特码王中王0149 香港—香港特码王中王 免费—香港特码王中王六肖—【东方心水】 收藏 联系我们

AI翻译存在歧视?这里是我们的测试

2017-10-11 07:08

  这张图被当做AI有歧视的。简而言之,神经网络在背后提供支持的Google翻译,在把一句性别中立的语言(此处是土耳其语)翻译成英文时,会出现非性别中立的情况。或者说,Google翻译会猜测主语的性别。

  这条Twitter获得了上万的转发,也引发了本文作者Jecelyn Yeen的注意。Jecelyn是马拉西亚华人,所以她用马来语和中文进行了几次测试,其中马来语是性别中立的语言,而中文是混合的。

  人工智能(AI)存在性别么?我觉得不是。AI从数据中学习,给予人类设计的模型返回更符合逻辑的结果。所以,我认为机器翻译在统计学上是正确的。数据如下。

  比方说上述测试中提到的程序员(Programmer)。来自Stack Overflow今年的数据显示,参与调查的开发者或程序员中有88.8%是男性。

  还有(Nurse)。网站Minoritynurse的数据显示,其上282万注册中,只有9.1%为男性。

  但对我来说,这是一个问题,是一个需要改进的方面,统计学上的正确并不意味着它是正确的。

  Charles Wheelan在《的统计学》一书中,谈到了统计歧视和歧视。他提到即便我们建了一种模型,能以80%的正确率识别出毒贩,那还有20%的人会被反复。“我们有时计算正确,但却导向了一个的方向”。