欢迎访问佰和公司
搜索
新闻资讯
企业动态
07 25,2020 名中医+智能机器人!东莞市滨海湾中心医院中医馆,开馆啦!
07 22,2020 东莞佰和生物科技有限公司参赛的
06 16,2020 “不动产登记探讨兴趣小组”开课了
05 31,2020 “赢在东莞科技创新创业大赛”圆满落幕,佰和生物科技获东莞赛区三等奖
05 29,2020 赢在东莞科创决赛│精研高端装备,让机器更“懂”世界
05 10,2020 太平洋建设集团、广东宏川集团考察东莞佰和生物科技公司
热门关键词
- 来源: 新智元
- 日期: 2019-09-09
文章摘自公众号新智元,发布于2019.09.09
【新智元导读】近日,Facebook宣布启动一项“Deepfake视频检测挑战赛”,壕掷1000万美元,悬赏能够最好地检测出利用Deepfake技术制造的假视频,包括微软、MIT、牛津大学,加州大学伯克利分校等业界学界联合支持。
科学家们终于要“以 AI 攻 AI”了。
Facebook宣布了一项名为Deepfake Detection Challenge(DFDC)的挑战赛,壕掷1000万美元,悬赏能够最好地检测出利用Deepfake技术制造的假视频。
该项竞赛合作伙伴包括微软、康奈尔理工,麻省理工学院,牛津大学,加州大学伯克利分校,马里兰大学等,Facebook还将针对挑战赛发布一个新数据集。
Facebook的首席技术官Mike Schroepfer表示,挑战的目标是“创造出每个人都可以使用的技术,以便更好地检测AI何时被用来改变视频以误导观众。”
Deepfake检测挑战赛将包括一个数据集和排行榜,以及拨款和奖励,以刺激行业创造新的方式来检测和防止通过AI操纵的媒体被用来误导他人。
讲真,要是当初知道卷积神经网络 (CNN) 会催生 DeepFake,我们还要不要发表 CNN?
他说:“假设在上世纪 80 年代那时我们能够预见 CNN 的这些负面影响,我们该不该把 CNN 模型保密不公开呢?”
LeCun最后的结论是,就算自己不开源,CNN (或者类似的东西) 还是会被其他人发明出来 (实际上,有些人可以说差不多已经做到了)。
既然已经开源,并且已经导致了负面影响,思考如何阻止和对抗这些负面影响更有价值。
这次,Facebook投入了超过1000万美元来资助这项全行业的努力。
为了确保数据集和挑战参数的质量,这些参数最初将在今年10月的国际计算机视觉会议(ICCV)上通过有针对性的技术工作会议进行测试。
完整的数据集发布和DFDC发布将于今年12月召开的神经信息处理系统会议(NeurIPS)上发布。Facebook也将参与挑战,但不接受任何经济奖励。
Facebook的这项挑战赛得到了学术界的支持。
“为了从信息时代走向知识时代,我们必须更好地区分真实与虚假,奖励可信内容而不是不受信任的内容,并教育下一代成为更好的数字公民。这需要全面投资,包括产业/大学/非政府组织的研究工作,以开发和实施能够快速准确地确定哪些内容是真实的技术。”
Facebook的合作伙伴包括微软、康奈尔理工,麻省理工学院,牛津大学,加州大学伯克利分校,马里兰大学等。
Deepfake盛行,扎克伯格、美国众议院议长纷纷躺枪
DFDC并非Facebook第一次与Deepfake打交道。今年5月,艺术家Bill Posters做了一个马克·扎克伯格的Deepfake视频,以回应Facebook关于操纵图像和数据使用的政策。
在这段合成视频中,“扎克伯格”说:“试想一下:一个人完全控制着数十亿人被盗的数据,掌握着他们所有的秘密、生活和未来。这都要归咎于Spectre漏洞。它让我明白,谁控制了数据,谁就控制了未来。”
视频中的“扎克伯格”,无论从相貌声音,还是穿着打扮,都跟真的扎克伯格几乎没有差别。他能眨眼,会做手势,口型和画外音高度吻合。乍看之下,几乎找不到破绽,只是声音有些奇怪。
最初的真实视频来自于扎克伯格在2017年9月发表的关于俄罗斯干预美国大选的讲话。而Deepfake视频是使用CannyAI的视频对话替换(VDR)技术创建的。
而在此之前,Facebook决定对一则关于美国众议院议长Nancy Pelosi的虚假视频暂时搁置不处理。在这段剪辑过的视频里,Pelosi听起来像醉酒后说话,视频很快在Instagram平台上疯狂传播。
按照 Facebook 的官方回应,Pelosi的视频“没有违反平台的政策,因为所有人都可以自由表达自己(的想法),如果有第三方事实检测工具认定视频是假的,视频就会被打上标签,提醒用户注意其真实性,而且还会在推送中降低权重。”
不久之后,Facebook的公共政策主管Neil Potts在国会前作证说,若扎克伯格的虚假视频出现在公司平台上,Facebook也会遵循同样的政策。
随着换脸APP“ZAO”的火爆,人们无需技术背景便可创造假视频,一方面带来了娱乐,而更多的是带来了风险。
在DARPA组织的一次Deepfake相关的讨论会上,达特茅斯大学计算机科学教授Hany Farid表达了担忧:“Deepfake可能让好莱坞级别的特效造假变得大众化,并可能导致大量以假乱真的骗局。”
Farid举了个可怕的例子:“假如有人制作了一段视频,特朗普在视频中说’我已经对朝鲜发射了核武器’,这段视频迅速传播,在有人意识到它是假的之前,我们的世界可能已将发生了全面的核毁灭。”
他说:“我不是故意引发恐慌或夸大其词,但我认为,目前这并非完全不可能。”
我们现在处在一个真假难辨的时代,如果不用技术手段对Deepfake视频进行检测、管制,后果将不堪设想,这也是为什么我们需要像DFDC这样的挑战赛来推动技术向善、AI向善。
以 AI 攻 AI:DAPRA、伯克利开发反换脸刑侦工具
有“换脸”就有“反换脸”,越来越多的研究人员在努力寻找准确识别 Deepfake 的假视频的方法。
最迫切希望攻破Deepfake的是美国国防部DAPRA,他们发起Media Forensics项目(简称MediFor),资助研发一系列自动化工具来辨识被ps的图片、Deepfake伪造的视频、等等。
他们的第一个成果是一款“反换脸”AI刑侦工具,主要由纽约州立大学奥尔巴尼分校的研究人员开发技术,通过有效地预测眼睛的状态,准确率达到 99%。
研究人员发现,Deepfake假视频里的人物极少眨眼,甚至不会眨眼,因为它们都是使用睁眼的照片进行训练的。利用这些细微的线索,可以检测出图像或视频中的脸是真实的还是 AI 生成的。
早期的 Deepfake 生成的假视频缺陷明显,比如人物说话时从不眨眼,现在这个缺陷已被修复
然而,这一工具来不及实用化就被宣告无效了——早期的Deepfake视频远远算不上完美,存在各种容易发现的缺陷,比如不眨眼。但 Deepfake 技术的发展速度非常惊人,假视频中人物从不眨眼的缺陷很快得到了改善,生成的假视频变得越来越逼真可信。
最近,来自加州大学伯克利分校和南加州大学的研究人员在“以AI攻AI”的这场战斗中开发了出了新的武器,可以更加准确地识别伪造的视频。研究人员利用前总统奥巴马的现有视频,使用类似的过程来创建假视频,训练 AI 来寻找每个人的 “软性生物识别” 标签。
在实验中,这款新的 AI 准确发现伪造视频的几率达到了 92%,实验对象包括使用多种技术创建的假视频,以及由于视频文件被过度压缩导致图像质量下降的视频。
不过,研究人员也发现,该方法的适用性容易受到人们说话的不同背景的影响(直面镜头正式讲话,与不看镜头的现场采访),解决这些局限仍需要更多的研究。
现在,Facebook、微软、MIT、UC伯克利等业界和学校联合发起的这项Deepfake 检测挑战赛,无疑将进一步推进“反换脸”的进步,有兴趣的同学快去参与。
【新智元导读】近日,Facebook宣布启动一项“Deepfake视频检测挑战赛”,壕掷1000万美元,悬赏能够最好地检测出利用Deepfake技术制造的假视频,包括微软、MIT、牛津大学,加州大学伯克利分校等业界学界联合支持。
科学家们终于要“以 AI 攻 AI”了。
Facebook宣布了一项名为Deepfake Detection Challenge(DFDC)的挑战赛,壕掷1000万美元,悬赏能够最好地检测出利用Deepfake技术制造的假视频。
该项竞赛合作伙伴包括微软、康奈尔理工,麻省理工学院,牛津大学,加州大学伯克利分校,马里兰大学等,Facebook还将针对挑战赛发布一个新数据集。
Facebook的首席技术官Mike Schroepfer表示,挑战的目标是“创造出每个人都可以使用的技术,以便更好地检测AI何时被用来改变视频以误导观众。”
Deepfake检测挑战赛将包括一个数据集和排行榜,以及拨款和奖励,以刺激行业创造新的方式来检测和防止通过AI操纵的媒体被用来误导他人。
悬赏1000万美元,挑战赛获学界支持
Yann LeCun 曾在 Twitter 上提问:讲真,要是当初知道卷积神经网络 (CNN) 会催生 DeepFake,我们还要不要发表 CNN?
他说:“假设在上世纪 80 年代那时我们能够预见 CNN 的这些负面影响,我们该不该把 CNN 模型保密不公开呢?”
LeCun最后的结论是,就算自己不开源,CNN (或者类似的东西) 还是会被其他人发明出来 (实际上,有些人可以说差不多已经做到了)。
既然已经开源,并且已经导致了负面影响,思考如何阻止和对抗这些负面影响更有价值。
这次,Facebook投入了超过1000万美元来资助这项全行业的努力。
为了确保数据集和挑战参数的质量,这些参数最初将在今年10月的国际计算机视觉会议(ICCV)上通过有针对性的技术工作会议进行测试。
完整的数据集发布和DFDC发布将于今年12月召开的神经信息处理系统会议(NeurIPS)上发布。Facebook也将参与挑战,但不接受任何经济奖励。
Facebook的这项挑战赛得到了学术界的支持。
“为了从信息时代走向知识时代,我们必须更好地区分真实与虚假,奖励可信内容而不是不受信任的内容,并教育下一代成为更好的数字公民。这需要全面投资,包括产业/大学/非政府组织的研究工作,以开发和实施能够快速准确地确定哪些内容是真实的技术。”
- Hany Farid
加州大学伯克利分校电气工程与计算机科学系教授
“自从有了摄影,人们就开始操纵图像。但现在几乎所有人都可以创造并将假图片、假视频传递给大众。本次比赛的目标是建立人工智能系统,能够检测出篡改图像中的细微缺陷,并揭露其对现实的欺诈性表现。”
加州大学伯克利分校电气工程与计算机科学系教授
- Antonio Torralba
MIT电气工程与计算机科学教授
根据DFDC网站的说法,这项挑战将持续到2020年。将使用“一种测试机制来选择获胜者,该机制使团队能够根据我们创始合作伙伴的一个或多个黑盒测试集对其模型的有效性进行评分。” MIT电气工程与计算机科学教授
Facebook的合作伙伴包括微软、康奈尔理工,麻省理工学院,牛津大学,加州大学伯克利分校,马里兰大学等。
Deepfake盛行,扎克伯格、美国众议院议长纷纷躺枪
DFDC并非Facebook第一次与Deepfake打交道。今年5月,艺术家Bill Posters做了一个马克·扎克伯格的Deepfake视频,以回应Facebook关于操纵图像和数据使用的政策。
在这段合成视频中,“扎克伯格”说:“试想一下:一个人完全控制着数十亿人被盗的数据,掌握着他们所有的秘密、生活和未来。这都要归咎于Spectre漏洞。它让我明白,谁控制了数据,谁就控制了未来。”
视频中的“扎克伯格”,无论从相貌声音,还是穿着打扮,都跟真的扎克伯格几乎没有差别。他能眨眼,会做手势,口型和画外音高度吻合。乍看之下,几乎找不到破绽,只是声音有些奇怪。
最初的真实视频来自于扎克伯格在2017年9月发表的关于俄罗斯干预美国大选的讲话。而Deepfake视频是使用CannyAI的视频对话替换(VDR)技术创建的。
而在此之前,Facebook决定对一则关于美国众议院议长Nancy Pelosi的虚假视频暂时搁置不处理。在这段剪辑过的视频里,Pelosi听起来像醉酒后说话,视频很快在Instagram平台上疯狂传播。
按照 Facebook 的官方回应,Pelosi的视频“没有违反平台的政策,因为所有人都可以自由表达自己(的想法),如果有第三方事实检测工具认定视频是假的,视频就会被打上标签,提醒用户注意其真实性,而且还会在推送中降低权重。”
不久之后,Facebook的公共政策主管Neil Potts在国会前作证说,若扎克伯格的虚假视频出现在公司平台上,Facebook也会遵循同样的政策。
随着换脸APP“ZAO”的火爆,人们无需技术背景便可创造假视频,一方面带来了娱乐,而更多的是带来了风险。
换脸APP“ZAO”
最坏的情况是,有人担心,如果不加以控制,Deepfake系统可能会被恶意用来欺骗政府和人民,甚至引发国际冲突。在DARPA组织的一次Deepfake相关的讨论会上,达特茅斯大学计算机科学教授Hany Farid表达了担忧:“Deepfake可能让好莱坞级别的特效造假变得大众化,并可能导致大量以假乱真的骗局。”
Farid举了个可怕的例子:“假如有人制作了一段视频,特朗普在视频中说’我已经对朝鲜发射了核武器’,这段视频迅速传播,在有人意识到它是假的之前,我们的世界可能已将发生了全面的核毁灭。”
他说:“我不是故意引发恐慌或夸大其词,但我认为,目前这并非完全不可能。”
我们现在处在一个真假难辨的时代,如果不用技术手段对Deepfake视频进行检测、管制,后果将不堪设想,这也是为什么我们需要像DFDC这样的挑战赛来推动技术向善、AI向善。
以 AI 攻 AI:DAPRA、伯克利开发反换脸刑侦工具
有“换脸”就有“反换脸”,越来越多的研究人员在努力寻找准确识别 Deepfake 的假视频的方法。
最迫切希望攻破Deepfake的是美国国防部DAPRA,他们发起Media Forensics项目(简称MediFor),资助研发一系列自动化工具来辨识被ps的图片、Deepfake伪造的视频、等等。
他们的第一个成果是一款“反换脸”AI刑侦工具,主要由纽约州立大学奥尔巴尼分校的研究人员开发技术,通过有效地预测眼睛的状态,准确率达到 99%。
研究人员发现,Deepfake假视频里的人物极少眨眼,甚至不会眨眼,因为它们都是使用睁眼的照片进行训练的。利用这些细微的线索,可以检测出图像或视频中的脸是真实的还是 AI 生成的。
早期的 Deepfake 生成的假视频缺陷明显,比如人物说话时从不眨眼,现在这个缺陷已被修复
然而,这一工具来不及实用化就被宣告无效了——早期的Deepfake视频远远算不上完美,存在各种容易发现的缺陷,比如不眨眼。但 Deepfake 技术的发展速度非常惊人,假视频中人物从不眨眼的缺陷很快得到了改善,生成的假视频变得越来越逼真可信。
最近,来自加州大学伯克利分校和南加州大学的研究人员在“以AI攻AI”的这场战斗中开发了出了新的武器,可以更加准确地识别伪造的视频。研究人员利用前总统奥巴马的现有视频,使用类似的过程来创建假视频,训练 AI 来寻找每个人的 “软性生物识别” 标签。
图 2. 从上到下依次是原始视频,嘴唇同步 Deepfake 假视频、喜剧模仿视频、换脸 Deepfake 和木偶大师 deepfake 的 10 秒视频剪辑的五个示例帧。
这听起来很复杂,其实并不陌生。每当我们开口说话时,都会以微妙但独特的方式来移动身体,我们的头、手、眼睛甚至嘴唇都会产生这样的运动。这一切都是在潜意识里完成的,你没有意识到你的身体正在做这件事,大脑也没有立刻意识到身体其他部位的运动发生在何时,但从结果上看,这是目前 Deepfake 在创造假视频时的时候没有考虑到的因素。在实验中,这款新的 AI 准确发现伪造视频的几率达到了 92%,实验对象包括使用多种技术创建的假视频,以及由于视频文件被过度压缩导致图像质量下降的视频。
不过,研究人员也发现,该方法的适用性容易受到人们说话的不同背景的影响(直面镜头正式讲话,与不看镜头的现场采访),解决这些局限仍需要更多的研究。
现在,Facebook、微软、MIT、UC伯克利等业界和学校联合发起的这项Deepfake 检测挑战赛,无疑将进一步推进“反换脸”的进步,有兴趣的同学快去参与。
上一篇: 卷积神经网络中十大拍案叫绝的操作
下一篇: 揭秘为何机器人如此重要
企业文化
东莞佰和的企业文化:佰和智能科技伴您终身,幸福健康每一家
公司战略:用专业AI技术、肠道菌群技术和免疫食品技术建立老年智能健康服务平台
宗旨:做中国优秀的将人工智能技术应用在老年人群和老年痴呆人群的专业公司
公司愿景:创建和发展中国领先的老年痴呆、老人智能健康服务平台
公司的核心价值观:以人为本、开放、自由、平等、创新、奉献,人人都是企业的主人
公司的服务目标:通过使用佰和的产品,让老年痴呆患者和老人过有尊严的晚年生活
社会责任:减轻国家、社会、家庭的负担,减轻护工的压力,提高老年痴呆患者生活质量
公司战略:用专业AI技术、肠道菌群技术和免疫食品技术建立老年智能健康服务平台
宗旨:做中国优秀的将人工智能技术应用在老年人群和老年痴呆人群的专业公司
公司愿景:创建和发展中国领先的老年痴呆、老人智能健康服务平台
公司的核心价值观:以人为本、开放、自由、平等、创新、奉献,人人都是企业的主人
公司的服务目标:通过使用佰和的产品,让老年痴呆患者和老人过有尊严的晚年生活
社会责任:减轻国家、社会、家庭的负担,减轻护工的压力,提高老年痴呆患者生活质量
技术资料>>
联系我们
东莞佰和生物科技有限公司
手机:13925845520
联系人:何先生
邮箱:henrik@baiherobot.com
网址:www.baiherobot.cn
地址:东莞松山湖高新技术产业开发区科技四路16号光大We谷C2栋616室
手机:13925845520
联系人:何先生
邮箱:henrik@baiherobot.com
网址:www.baiherobot.cn
地址:东莞松山湖高新技术产业开发区科技四路16号光大We谷C2栋616室
其它
>>
Copyright © 东莞佰和生物科技有限公司 备案号:粤ICP备19095204号
地址:东莞松山湖高新技术产业开发区科技四路16号光大We谷C2栋616室
本站部分图文来源网络,如有侵权问题请通知我们处理!
网站建设维护