恒彩彩票首页-恒彩彩票手机下载客户端-万门大学的路就是童哲的路

作者:分分快三手机发布时间:2019年11月12日 06:31:39  【字号:      】

1 没有教育背景2 没有事业人脉3 做教育需要大量财力物力和志同道合的伙伴4 想做的平台极难商业化,商业前景渺茫经过思考,他意识到万门大学做成的可能性小于1%,但他依然要做。2实际上,成为卫道士并非童哲本意,但在面对不符合他的价值观的事情上,他从来都不会做分毫让步。2007年,童哲在北大未名BBS发帖举报同学家境优渥却骗领助学金,“我爸是律师,我用普通洗面奶,他领国家贫困助学金,他用欧莱雅洗面套装。”

皮尤研究中心的一项最新研究发现,Facebook的新闻图片中,男性出现的频率是女性的两倍,且大部分的图片是关于男性的。

在目前,包括亚马逊在内的很多科技公司尚未加入这一承诺。“根据我们的研究,贸然向执法部门或者政府机构出售面部识别系统将是不负责任的。”作为算法正义联盟创始人之一的Joy希望,在未来,更多的机构能加入到“安全面孔承诺”,能够负责任地、符合道义地为面部分析技术的发展付出行动。

著名非裔记者、平权运动家Ida B.Wells被识别为男性。为了减少搜索人脸所需的时间,执法部门正在大量使用性别分类。如果需匹配人脸的性别是已知的,通过简单的二分法,就可以大量减少需要处理的潜在匹配数。性别分类正广泛应用到警务活动中。

毕竟,算法偏见的背后,其实是我们人类自己的偏见。参考链接:1.https://www.journalism.org/2019/05/23/men-appear-twice-as-often-as-women-in-news-photos-on-facebook/

这也暗合了美国社会学家戈夫曼(Erving Goffman)的“前台/后台理论”。戈夫曼认为人生就是一出戏,人们在不同的情境之下,面对不同的“观众”,会有迥然不同的表现。

为了更好地了解这一过程中的规则,皮尤研究中心进行了一个有趣的实验,他们将自己中心工作人员的图像上传到机器视觉系统,并对图像内容进行部分遮挡,希望从中寻得规律,找到是哪些面部区域会让算法做出或改变决策。

为了减少对面部识别技术的滥用,算法正义联盟(Algorithmic Justice League)和隐私与技术中心(Center on Privacy & Technology)发起了“安全面孔承诺”(Safe Face Pledge)活动。

不同系统对深肤色演员的识别数据不同Facebook曾宣布,在名为Labeled Faces in the Wild的数据集测试中,自己面部识别系统的准确率高达97%。但当研究人员查看这个所谓的黄金标准数据集时,却发现这个数据集中有近77%的男性,同时超过80%是白人。

“偏见”带来了什么?最近,包括图灵奖获得者Yoshua Bengio在内的26位AI领域顶尖研究者,在一篇公开博文中要求亚马逊立即停止向警方出售其人工智能服务Amazon Rekognition。亚马逊云计算部门前首席科学家Anima Anandkumar等人也加入了这一联合呼吁。

这个一心想成为“理论物理学家”的北大学霸,现在成了万千CEO中的一个,创业5年,他说这是“另一种成为科学家的方式”。

具体来看,在涉及经济相关的帖子中,女性面孔的平均尺寸比男性小19%,但在娱乐相关的内容中,女性面孔的平均尺寸比男性大7%。

3.https://medium.com/@Joy.Buolamwini/response-racial-and-gender-bias-in-amazon-rekognition-commercial-ai-system-for-analyzing-faces-a289222eeced

他瞒着家人,回国创立了致力于“降低中国教育门槛”的万门大学,免费发布大学、高中课程,希望成为中国的可汗学院。

此前,多伦多大学的研究人员Deborah Raji和麻省理工学院媒体实验室的研究人员Joy Buolamwini撰写了研究报告,指出亚马逊的Rekognition在检测图像中肤色较深的女性性别时,要比判断肤色较浅男性性别的错误率高得多。该研究成果也得到了学者们的支持,但亚马逊曾对两人撰写的这篇报告及研究方法提出过异议。

此前,童哲一直宣称要把万门做成NGO,这种强行收费的转型,又给他带来了一大波非议。最初,他创业的目标是“降低中国教育的门槛”,希望通过免费的中学、大学课程,帮助尽可能多的人接触到优质教育资源,因此,将万门大学公司化、商业化,其实都是违背初心的事。

还好,阵痛很快过去了,融资到账,公司逐渐步入正轨。童哲的头发又长回来了,随之回来的还有他的信念——比起NGO,公司是更高效、更适合在线教育的方式。

但童哲认为人区别于动物,就是因为有理想。“如果一个人没有自己的理想的话,那就只能做最动物性的事情,最低级的事情,你的行为就会被基因所控制——多攒钱犒劳自己,多欺骗配偶,多生孩子,就像前段时间的史诗级直男癌。我认为人的尊严就体现在有独特的目标。”

AI的种族歧视,是算法盲点还是人心叵测?

2015年股灾中,公司面临资金链断裂,眼看要倒闭。童哲的母亲卖了厦门的一套房子,借给他一百多万,高中学长蔡嘉育借给他了三百万,公司才安然度过危机。“之后把钱还回去了”,童哲补充道。

他甚至曾想过游历中国,记录中国乡村的时间截面,但一定是“不参与网络,不做相应的报道或者是宣传,不引起别人关注”的方式,以保证客观。

这是支撑他创业并在诸多反对声中坚持下来的底层逻辑,但他也从一开始就知道这条路可能会通向万丈深渊,他列举了诸多困难:

最后,当你完成选择后,图片将呈现出能影响性别分类改变的所有区域。感兴趣的读者,可以登陆皮尤研究中心网站,自己动手完成这个小实验。传送门:https://www.pewresearch.org/interactives/how-does-a-computer-see-gender/

本文来自公众号:全媒派(ID:quanmeipai),原标题为:《人脸识别的肤色性别偏见背后,是算法盲点还是人心叵测?》,题图来自:。

他有自己坚持的正义和原则,一切不能在逻辑上说服他的,都会被他坚决、公开地反对。3他的所作所为确实都符合这两个条件:刷存在感、对社会有贡献,而且他一直非常努力地为之摇旗呐喊。然而与互联网上、公开场合的高调夸张相反,童哲在生活中谦卑得完全不像北大毕业的创业公司CEO。一位朋友回忆与他的初次见面——他深深鞠躬双手送上名片,席间极少开口发表意见,倾听同伴发言时专注地看着对方。突然有事提前离席,他默默地把单买了才走。

亚马逊面部识别系统对不同肤色、性别的测试准确度Google将这位用户的朋友识别为“大猩猩”“不管其正确性如何,面部识别技术都可能被滥用,”Joy说道。准确或者不准确地使用面部识别技术对他人的身份、面孔、性别进行分析,都可能侵犯到他人的自由。比如,不准确的识别可能会使得无辜者蒙冤,受到执法人员的无理审查,这并不是假想的情况。

本文来自公众号:全媒派(ID:quanmeipai)。曾给雷军、李彦宏讲引力波的北大学霸,现在怎么样了?

物理学院迫于压力,最终举行了听证会,相关同学也退还了助学金。2008年6月期末考试期间,童哲又在论坛揭发同学求老师加分,“学问的荣誉与学术的尊严,在委曲求全的旗号下荡然无存。这就是当今世界带给我们的。”

为了在数据层就尽最大可能地剔除偏差,Joy提出,应当构建更具包容性的基准数据集。为了平衡基准数据,她列出了世界上妇女在议会所占比例最高的十个国家,其中卢旺达以超过60%的女性比例领先世界。考虑到北欧国家和少数非洲国家具有典型代表性,Joy选定了3个非洲国家和3个北欧国家,通过选择来自这些国家年轻、深肤色的个体数据来平衡数据集中的皮肤等类型。

1和很多人一样,童哲小时候的梦想是做科学家;但和大部分人不一样的是,20岁之后,他依然觉得自己可以碾压爱因斯坦。

研究人员还测量了图像中女性面部与男性面部的大小情况(目前的技术只能捕捉人脸的大小情况,忽略了头发、珠宝和头饰等因素的影响)。结果显示,男性面孔平均占到的图像面积更大,这种差异导致图像中男性平均面部尺寸比女性大出了10%。在Facebook的图像中,这表现为男性人物能给读者带来更大的视觉冲击。

在TED演讲中,Joy和大家分享了一个小故事:在同样的光线条件下,面部识别系统只能检测到浅肤色的参与者;只有戴上白色面具,才能检测出深肤色的参与者。“在人工智能工具确定人脸的身份或者辨别表情信息前,最基本的前提是,检测出人脸。但是,面部识别系统在检测黑皮肤个体上,屡次失败。我只能安慰自己,算法不是种族主义者,是自己的脸太黑了。”Joy说道。

“我觉得现在还没有到想让自己舒服的时候,只有公司做好了,我才能舒服,公司不好,你让我在什么地方度假,我肯定心急如焚。”

在他看来,万门大学就是除科学家之外,他力所能及的最有意义的事。“教育是人的杠杆,网络是教育的杠杆,杠杆乘杠杆,所以网络教育会对社会进步有很大的帮助。”

他的观点依旧极端、非黑即白,不过这次似乎吃一堑长一智了,他补充道:“但是这没有正确与否。”谈到自己的理想,童哲说他想给社会留下永传的东西——“我不愿意时间被荒废虚度,以至于说不出今天最大的收获与喜悦,也不愿意一天的快乐仅仅来源于无厘头的玩笑和廉价的神经满足。

你也许会为女性身影的稀少而感到疑惑,这在一定程度上和更大的社会现实相关。比如,在关于职业足球队的新闻报道中,识别出的图像大多都是男性;在针对美国参众两院(女性占比为25%)的报道中,识别出的女性面孔当然要比男性少得多。

从25岁开始创业,到今年三十而立,他的故事足够写一本《博眼球指南》。公开场合的“戏精”,和私下憨厚低调的金牛男,到底哪个才是真的童哲?采访、撰文:于蒙| 2016年2月21日,童哲在给互联网大佬们讲广义相对论。2012年他创立了万门大学,致力于“降低中国教育的门槛”。

直到站在埃菲尔铁塔下仰望的那一刻,他仍然坚信,自己未来会成为又一位中国籍的诺贝尔获奖者。童哲觉得自己可能没戏了,“一路上自认是个天才,但是真正在最顶尖的竞争之中,我能够感觉到自己并不是全世界前十。”

但是就像《生活大爆炸》中的Sheldon一定宁愿辞职也不会去做Leonard的工作,童哲也不愿退而求其次。尽管已经拿到了苏黎世联邦理工的博士offer,他还是放弃了这条很大可能不会成功的路。

当这些有偏差的识别系统被广泛应用到社会生活中,就可能导致更糟糕的后果。Joy Buolamwini在TED上发表题为How I"m fighting bias in algorithms的演讲

在这个极端务实的时代,谈理想和信念,似乎成了最应该被嘲笑的事情。个人努力的价值被质疑,阶级固化成了人人挂在嘴边逃避现实的理由。

那么,是谁在“扭曲”两性?为何有时候,算法眼中的你处在可男可女的模糊地带?进一步讲,性别之外还有哪些偏见?为了应对这种状况,我们可以做些什么?人脸识别下的性别失衡皮尤的这份报告指出,在Facebook上不同类型的新闻报道中,女性在图片中的“在场”情况始终低于男性。在与经济有关的帖子中,只有9%的图片为纯女性内容,与此形成鲜明对比的是,纯男性图像占到了69%。女性在娱乐新闻图片中拥有更多展示机会,但总体上仍低于男性。

那年童哲28岁,创业3年,第一次面临理想和现实的碰撞。网络上的质疑、巨大的自我怀疑和公司难以为继的压力,把他逼出了“急性斑秃”。“洗头的时候一摸觉得不对劲,完蛋怎么少了大拇指指甲盖一样大的头发。去了北医三院,医生说就是压力太大身体产生应激反应。”

Joy提醒我们关注基准数据集的偏差。“当我们讨论面部分析技术的准确性时,是通过一系列图像或者视频测试来完成的。这些图像数据构成了一个基准,但并不是所有的基准都是平等的。”

机器学习的确可以极大地提高我们处理数据的效率,但与传统的计算机程序不同,机器学习遵循一系列严格的步骤,它们的决策方式在很大程度上隐而不显,并且高度依赖于用来训练自身的数据。这些特点可能导致,机器学习工具产生更难以被人理解和提前预测到的系统性偏差。

他把公司的生死系于自己一身,可以说万门大学就是童哲,万门大学的路就是童哲的路。5有人说童哲是堂吉诃德。“一个人办一所大学”、“你是你的大学”、“降低中国教育门槛”创业理念,在很多人眼中怎么看都像包裹着理想主义外衣的鸡汤。

在这个“人机博弈”的交互挑战中,你不妨也大胆猜测下,哪些部分影响了系统的判断?首先,输入一张清晰的图片到机器视觉系统,此时,不管是算法还是你,都可以清楚地判断出照片中人物的性别。接下来,照片中出现了若干方框,提示信息告诉你,“选中某一方框意味着,在图片中遮挡隐藏该部分内容,你的选择有可能影响性别判断。”

偏差来自哪里?如果对比开发者自己声明的准确率和研究者们的研究结论,会发现一个有趣的事情:公司发布的数据和独立第三方的外部准确率总是有所出入。那么,是什么导致了这一差异?

| 只能找到这一张照片了。虽然是自封的科学家,但他的物理水平也确实得到了诸多验证。初中时物理竞赛全市第一,高中获得奥赛全国银牌,保送进北大物院,大三考上了全球只招10个国际学生、诺贝尔奖得主辈出的巴黎高师。

正是基于这个更平衡的数据集,他们对亚马逊、Kairos、IBM、Face++等公司的面部识别系统进行了重新评估。在2018年8月的研究中,他们发现,亚马逊和Kairos在白人男性识别工作上表现优秀,但亚马逊对有色人种的女性面孔识别的准确率很低,仅为68.6%。

在现实生活中,识别你周围人的性别再简单不过,但是对于计算机而言,它的工作需要经历怎样的步骤?计算机如何“看出”你的性别?“在给算法‘喂入’成千上万个图像案例后,作为一个‘成熟的算法’,面部识别系统自己就能学会如何辨别男性和女性。”这种回答虽然可以解释上文的疑问,但对于“黑箱”外的我们,可能并不容易理解这一学习过程。

即便在同样的基准下,面部识别系统的准确度数字可能也会发生变化。人工智能并不完美。在这种情况下,通过提供置信度给用户更具体的判断信息是一个有用的做法。

本文转自公众号「馒头商学院」汇集来自腾讯、网易、阿里等公司大牛分享的产品、运营、营销以及职场成长干货。关注馒头商学院,与100W互联网人一起学习、成长。

那段时间,公司从原来40多人,裁员到只剩12人。虽然有了家里的支持,但融资依然没有着落,为了尽快度过难关,他放弃了之前一直坚持的免费模式,把课程打包售卖,500块钱可以学习高中阶段的全部课程。

像面部识别这样的机器视觉工具,正被越来越广泛地应用在执法、广告及其他领域,对性别的识别,是其基本功能之一。

2.https://www.pewresearch.org/interactives/how-does-a-computer-see-gender/

根据这个理论,人们会在前台呈现被人和社会所接受的形象,而把不够“伟光正”的形象隐匿在后台。有篇文章说,“在现在的环境,一个不完美的人但凡为自己振臂高呼,底下人总会找到他‘居心不纯’的角度。”换句话说,人们似乎渴望听到所有创业者大喊“我就是为了钱”,同时又盼着他们都是低到尘埃里的苦行僧。童哲说这是中国人的道德洁癖。4实际上,钱在童哲的创业中重要性非常低,他从一开始就在用自己的积蓄贴补公司,直到今年,他给自己发的工资也只有4千多。

亚马逊相关负责人表示,该公司使用了超过100万张面孔数据作为基准来检测产品的准确率。但是,不要被这个看起来很大的样本迷惑了。“因为我们不知道基准数据的详细人口统计学数据。没有这些信息,我们就无法判断,是否在基准选择上,就可能埋下了种族、性别或者肤色等偏见的可能。”

2013年9月,童哲与AIESEC大陆总会论战,揭露AIESEC大陆总会账目存在问题。这一风波席卷全国的AIESEC组织,最终以共同声明,总会进一步完善组织管理结束。

“我觉得如果拼死在工作上,是一种很好的状态,因为反正人最后都是要死的。就像孔子说朝闻道夕死可矣,那闻道是什么?闻道就是你追求最有生命感召力的事情。

文章登上了未名BBS的十大(最热的10篇文章),一度在学校引起轰动。在文章的最后,他写道:“本文产生的任何责任由我负责,我觉得我说出事情,问心无愧。我叫童哲,物理学院大三。”

童哲还表达过自己的苦恼:偶尔在街上被人认出来,会让他觉得不快。他希望做个手插兜的路人,不愿意失去静静旁观世界的权利。

虽然最终目标——降低中国教育的门槛——看起来充满情怀,但他在奔向目标的路上却一直都以理科生的理智武装自己,禁止一切感情用事和享乐追求,禁止“诗意”。

亚马逊的面部识别系统为奥普拉·温弗里的这张图片打上了男性标签,并给出了数据置信度Joy表示,现实世界中的脸部识别要比实验检测更为复杂和困难,他们建立的基准数据集也并非完全经受得住考验,“但这就好比跑步比赛,在基准测试中的出色表现,起码能保证你不会刚起步就摔倒。”




2分pk10官方整理编辑)

专题推荐