“人工智能技术听起来是比较高级的技术,但高级技术要想落到实处、运用到实践中、真正发挥作用,就必须脚踏实地。明星本质上都是泥土,而人工智能技术需要脚踏实地,才能真正应用于行业。”
于洋,腾讯杰出科学家、腾讯安全玄武实验室负责人
7月22日,在澎湃新闻主办的2023外滩新媒体年会上,“坚守媒体初心,拥抱AI时代”,腾讯杰出科学家、腾讯安全玄武实验室负责人于洋, 我说过了。 他指出,人类每一次科技进步形成的红利被人们消化的时间越来越短,科技进步的速度越来越快。 目前,我们已经充分经历了第五次技术浪潮。 同时,它也很可能正踩在第六次技术浪潮的边缘,而第六次技术浪潮的主导技术很可能就是人工智能。
技术没有对错,但使用技术的人往往有不同的初衷。 目前,AI大模型已经应用于互联网攻防两端,没有安全限制的“邪恶GPT”也出现在公众视野中。
如何看待AI大模型的爆发? 将对安防行业产生怎样的影响? 未来大型模型将如何应用于安防领域?
针对这些问题,澎湃新闻()记者近日对杨进行了专访。 在谈到对通用人工智能的期待时,于洋表示,通用人工智能一定会实现,但这只是时间问题。 对此,他给出了非常乐观的预测:通用人工智能可能在2026年到2030年之间实现。
作为网络安全技术人员,于洋也担心恶意用户利用大模型输出恶意代码,进行网络攻击。 对此,他表示,作为一种通用技术,AI大模型既可以“攻”,也可以“守”。 在攻防之间,“攻”往往走得更快,因为价值转换链短。 。
于洋表示,网络攻防的本质仍然是人与知识的对抗,比的是双方所拥有的知识。 谁先掌握新的攻防知识,谁掌握得更深入,谁就占据优势。
人工智能作为一种颠覆性的新技术,需要在各个行业积极拥抱和适应,安防领域也不例外。 于洋介绍,腾讯安全已将AI大规模模型技术应用到日常工作和研究中,特别是让研究人员从一些繁琐、重复的工作中解放出来。 注意力和集中力需要人脑更高的能力和创造性的完成度。 在上班。 不过,在评估大模型的能力后,于洋也表示,它并不能完全取代专业研究人员。 至于劳动力替代,则无需过于担心。 每一次新技术革命都会取代一些劳动岗位,同时创造更多新的岗位。 岗位上,我们要相信人类社会的适应能力。
除了关注网络上大模特的攻防对抗外,于洋还指出,大模特本身的安全和隐私问题也引发担忧。 为此,腾讯安全开发了基于同态加密技术的隐私数据过滤墙,可以在不改变大模型输出的情况下对原始数据进行加解密,防止用户隐私数据泄露。 目前,该技术可应用于文本摘要、机器翻译、文本分类等场景。
谈及未来的愿景,于洋表示,腾讯安全愿意拥抱各种新技术,并利用这些新技术“以尽可能快的速度、更少的成本”服务客户。 一方面,新技术会帮助我们提高安全性,另一方面,新技术也可以降低客户使用安全产品的成本。
以下为采访实录(略有编辑,不改变原意):
澎湃新闻:自从爆出圈后,大模特的热度一直持续至今。 据统计,截至今年5月,我国已发布参数10亿以上的大型模型79个。 近期,大型车型陆续发布,形成了百款车型的商业模式。 为什么大模特突然流行起来? 是技术突然的颠覆性突破吗?
于洋:一项新技术对行业、社会乃至整个世界的影响是主客观因素共同作用形成的。 一方面是由技术本身固有的客观因素决定的,另一方面也是由人们对它的主观认识决定的。 历史上也出现过很多主观认识偏离客观实际的情况,错误的认识也会让大家追求某些技术。
对于大模型,技术人员会有一些意见,公众也会有一些意见。 最终大家的意见可能会统一,但这需要时间。 大型车型本身并不是今年才出现的。 之所以这么受欢迎,是因为随着它的出现,大模型已经走出了专业领域,很多人开始对它产生兴趣,开始思考它,并形成自己的判断。
去年底以来,科技圈逐渐形成共识:这是一项革命性的技术。 与大多数技术不同,它只会带来某一领域的变化,但却会影响到人们生活的方方面面,对整个经济、社会产生全方位的影响。 大众认知度的突破主要是因为它的界面使用没有障碍,所有功能都是通过对话实现,呈现的效果也足够惊艳。
GPT-3 之前也有类似的能力,但它可能还没有达到那个临界点。 当它到来的时候,可能正好跨过人们对AI心理认知的临界点,从量变到质变。
澎湃新闻:可以预见,行业内的博弈将会更加激烈。 您如何看待下一阶段大型模型行业的竞争?
于洋:广义上的大型模型行业现在正在兴起,竞争肯定会很激烈,这是毫无疑问的。
大模型本质上是软件,其核心经济特征是复制成本很低。 虽然初期的研发成本可能会很高,但研发完成后,无论服务多少客户,只需要增加算力就可以了,所以很容易出现。 胜者通吃一切现象。 当前行业之所以有些恐慌,是因为大家都担心自己不是赢家,会被“通吃”。
从另一个角度来看,这样的发展态势,可以让几个大车型作为基础基础存在,可以集中精力发展基础能力。 其他企业可以在此基础上开发各种应用。 这就像操作系统和应用软件之间的关系。
当然,也不排除另一种可能,那就是大家都做自己的大模特,百花争艳。 但我认为最终的数量不会特别多,全球数百款大型车型的情况也不会持续很长时间,最终用户会用脚投票。
论文:人工智能大模型需要大量数据进行训练,数据的质量决定了大模型的水平。 互联网上无处不在的公共数据质量值得信赖吗? 互联网具有暴民效应。 用这样的数据训练出来的大模型是否也有这样的特征呢?
于洋:今天的人工智能技术是为了尽可能模仿人脑的工作方式。 其训练和学习过程与人类的学习过程类似。 你让孩子接触什么,接触谁,其实会影响他的成长方向。 大模型也是如此,它的学习结果也取决于数据。
为此,我们要做几件事:第一是数据清洗,去除有问题的数据; 二是训练完后进行测试,看看有没有学得不好的地方; 三是纠正问题。
虽然业界一直在探索可解释的技术,但从目前的进展来看,我认为暂时还不能指望,也不能假设未来会做出可解释的大型模型。
即使无法解释,人工智能仍然可以在重要岗位上使用。 这就像我们可以将人们分配到关键工作,即使我们没有读心术的能力。 但要事前检查、事中监管,要有持续的机制和措施确保安全。 对于人工智能来说也是如此。
澎湃新闻:我们知道人工智能目前缺乏对世界的基本认知,但随着人工智能知识库的扩大和学习能力的提升,量变会带来质变吗? 您认为通用人工智能是可能的吗?
于洋:从今天来看,可以说几乎肯定会实现,但只是时间问题。
我们现在看到的大型模型主要是基于语言学习的,有的还添加了图像来实现多模态。 在目前的很多应用场景中,语言和文字加图片基本上就足够了。 人类通过五种感官感知世界,大型模型也会朝这个方向发展。 模态更多的大型模型配备相应的传感器并收集相关数据,让大型模型也能拥有“五感”。 对整个世界的认识将与人类相同,甚至超越人类。
大型模型的发展仍然受到许多限制。 例如,大型模型对计算能力和能源有巨大的需求。 在硬件方面,当今的机器人技术远远落后于大型模型的发展。
当然,大模型也可能帮助人类解决开发过程中的这些问题,从而突破开发过程中可能遇到的上限和障碍。 例如,大型模型可能有助于探索可以用较少计算能力进行训练的技术路径; 大型模型可能帮助人们实现计算能力和能源的突破,比如可控核聚变,或者帮助找到突破芯片摩尔定律限制的方法。 的路径.
随着大规模模型技术的不断发展,通用人工智能在今天是一个非常有前途的东西。 即使以目前的技术水平,无论有没有新的突破,我对通用人工智能的实现还是比较乐观的。 如果要说实现时间,早的可能是2026年,晚的可能是2030年。
澎湃新闻:您之前也指出,GPT的出现就像“瓦特改进了蒸汽机”。 为什么会得出这样的判断呢? 在可预见的未来,您认为人工智能应用会给人类社会带来最大的改变是什么?
于洋:蒸汽机不是瓦特发明的,但瓦特使这项技术发挥了最大的潜力。 人类历史上有很多很多技术,最终的革命性影响是因为它们能够实现工业化,变得更加普惠和经济,最大限度地发挥技术的潜力。
在大模型出现之前,人类对人工智能的探索已经有几十年了,而当大模型发展出来之后,就出现了突破性的变化。 十年前,人工智能已经展示了其在视觉等领域的能力,取代人类做一些非常基础的脑力工作。 如今,大型模型可以取代人类也需要训练和学习的一些能力。
短期来看,科技可能会对就业产生一定影响,但不会造成大规模失业。 比如,过去100年的科技革命极大地提高了农业生产效率。 我们不再需要那么多农民,但我们需要更多工人。 结果,一些农民成为工人或服务提供者。 大模型在取代一些劳动岗位的同时,也会创造一些新的岗位。
而且现在大模型的进化速度明显快于机器人技术的发展,也就是说软件已经领先了一步,所以大模型对行业的改变基本上还是停留在数字空间,而指望大模特短期内给你理发也是不现实的。 因此,现阶段体力劳动岗位受到的影响并不大。
恐慌是人类的一种自然情绪,但面对技术进步,我们不应该只是恐慌,而应该更积极地拥抱变化。
在安全技术领域也有一些大型模型。 对于我们实验室来说,我们也面临着两个选择:要么忽略,要么接受。 忽略它,未来很可能会有竞争对手利用大模型来提高效率,实现替代。 接受它需要自我革命,需要积极应用大模型来提高工作效率。
澎湃新闻:在安全领域,AI模型如何影响网络安全? 您是否观察到某些人工智能被不良行为者利用? 最担心的是什么?
于洋:人工智能大模型作为一种通用技术,既可以“攻”,也可以“守”。
与任何新技术一样,“攻击”往往会进行得更快,因为价值转换链很短。 大型模型也是如此。 我们观察到,一些恶意攻击者已经使用了大规模模型技术。 例如,有的利用大规模模型来协助恶意程序的开发,有的利用大规模模型来协助钓鱼攻击。 无论人力进行钓鱼攻击的速度有多快,一个人最多可以同时与十几个人聊天,而大规模模型技术可能会同时与一万人甚至更多人聊天。
虽然很多大型模型厂商都在想尽办法防止自己的大型模型被编写恶意程序,并且会在设计上投入大量的精力来防止大型模型“作恶”,但这并不能完全防止不良行为的发生。人们不要利用科技来做坏事。 我们了解到,目前有一个专门用于“作恶”的大型模型——“Evil GPT”,它在训练过程中并没有施加任何安全限制。
如果科技进步有一定程度,就会增加人类个体所拥有的力量,无论是作恶的力量还是行善的力量。
同时,大模型本身也可以用于安全,即用于“防御”。 此外,大型模型本身的安全性也值得关注。 例如,大型模型是否可以通过传统的攻击方法进行入侵? 一个有很多安全限制的“好模型”是否有可能受到攻击而突破安全限制,变成“邪恶模型”?
从安全角度来看,是否值得担心一定和应用场景有关,而应用场景取决于用户对大模型的信任程度。 如果使用场景只是一个聊天机器人,那么最多会说一些让你不高兴的话,而如果把大模型做成充当医生给病人诊断的话,这种情况下可能带来的安全问题就是更大。
因此,我们如何应用大模型也取决于它本身的安全性以及我们应该信任它的程度,这决定了大模型将应用在哪些场景中。 因为安全方面的最坏情况实际上就是应用场景中的最坏情况,所以在做出决定之前应该充分了解这一点。
澎湃新闻:AI将如何提升现有网络安全产品的性能? 生成式AI安全产品会成为未来的一大趋势吗? 它最大的优势是什么? 未来的安全主要靠技术还是主要靠人?
于洋:从安全方面来说,大模型可以应用的领域非常广泛,几乎任何涉及信息处理的地方都可以使用大模型。
例如,一个企业每天可能会产生数百万、数千万条安全日志,人力无法处理全部,而且大部分安全日志没有多大价值,只有少数涉及重要信息。 这曾经是安全领域最令人头痛的问题,但今天我们可以使用大型模型来提供帮助。
我们可以设定一个标准。 高于标准的,特别重要的安全日志是由技术人员查看的,而低于标准的安全日志可能仍然有一些有价值的信息供大模型做一些处理。 由于性能问题,目前还无法直接让大模型处理所有安全日志,但通过一些间接的方法辅助筛选有价值的信息是没有问题的。 这是大模型在安全领域应用的典型场景。
安防行业的所有其他领域都将使用大模型,这是一个大趋势。 当这种颠覆性技术到来时,如果您不接受它,您的竞争对手就会接受。
事实上,网络攻防的本质仍然是人与人之间的对抗,是知识的对抗,比较的是双方所拥有的知识。 比如,如果出现新的漏洞,谁先了解得更透彻,谁就占据优势,大规模模型技术的应用也是如此。
澎湃新闻:腾讯安全在大模型应用过程中带来的最大变化是什么?
于洋:安全领域也有一些繁琐、重复的工作,比如运营相关的工作。 大规模模型在此类任务中的应用可以显着提高工作效率,实现降本增效。
比如我们实验室有一个专栏《每日安全推送》。 我们将从当天全互联网获取最新的安全技术信息,进行识别和处理,然后推送给公众,让广大网络安全技术从业者能够获取。 这些技术信息相当于技术情报或知识情报。
这个采集过程是传统的自动化技术,需要捕获、分析,然后判断它是否有价值。 我们每期只推送十几篇文章,需要挑选出技术上最有价值的,进行翻译和总结。 以前这个工作都是人工完成的,现在基本不需要人去做了。
在企业中,安全技术人员每天都要处理安全日志和警告信息。 未来这类工作可以使用大型模型,将人力从这部分繁重的工作中解放出来。
另外,在很多安全研发工作场景中,也存在很多繁琐的工作,比如处理代码。 要想找到一个真正有价值的点,需要人的大脑和很高的能力才能够做到。 判断工作。 虽然这部分工作通常只需要几分钟,但找到工作地点却总是需要几个小时甚至几天的时间。 大模型技术的应用可以提高筛选关键点的效率。
澎湃新闻:您认为AI大模型会很快取代安全技术人员吗?
于洋:我认为至少目前还不可能,因为大模型的推理能力与我们现在的安全技术人员相比还是很弱的,至少达不到专业安全研究人员的水平。
另外,安全研究本身就是一个发现新知识的过程,目前的大模型还是更擅长处理现有知识可以解决的问题。 虽然在测试中,大模型也具有一定的发现新知识的能力,但至少目前还无法取代高水平的研究人员。
如果有一天AI大模型能够取代高级安全研究人员,那么很可能可以取代所有脑力劳动者,至少诺奖以下的大模型工作都可以完成。
澎湃新闻:腾讯安全在GPT的应用上试图实现什么? 您能否举例说明腾讯在安全领域AI应用的典型场景和案例?
于阳:我们实验室目前正在致力于开发保护用户数据安全和隐私的技术。
大家网上用的大模型,本地都没有部署。 用户在使用时需要将相对私密且重要的数据发送到大模型中。 如果只是简单的聊天娱乐的话,其实影响并不大。 然而,很多人已经开始使用大型模型来处理生活和工作事务。 这时,将私有数据和重要数据交给大模型就会引起人们的担忧。 可以通过各种保证和协议来取消。
现在我们正在开发一个系统来帮助缓解隐私问题。 该系统应用了广义上的同态加密技术,相当于在用户和大模型之间在本地设置了一堵墙。 用户输入的信息经过墙过滤,信息被加密。 模型的数据不再包含私有数据。 大模型处理完后,返回的结果再次穿墙,转换成真实的结果呈现给用户。 云端大模型无法获取用户隐私数据,不影响大模型的使用效果。
目前我们还没有开发出全场景的墙,但是一些常见的应用场景已经可以实现隐私保护,比如让大模型帮你翻译、做摘要、做文本分类等。这个场景有很多。系统也可以应用。
论文:大模型应用前景广阔,安全性越来越重要。 腾讯安全对于大模型应用的未来有何愿景和期待?
于阳:从安全的角度来看,我们愿意拥抱各种新技术,并利用它们更好地服务客户。 一方面,大模型可以帮助我们提高安全性; 另一方面,大型号也可以降低客户使用安防产品的成本。
过去我们经常提出“更多、更快、更好、更省”的口号,但同时做到“更多、更快、更好、更省”这四个字其实很难。 现在随着技术的发展,更快地省钱逐渐成为可能,我们愿意为客户提供更快、更好、更经济的安全服务。
以上就是本篇文章【专访|腾讯杰出科学家于旸谈大模型安全及隐私保护技术】的全部内容了,欢迎阅览 ! 文章地址:http://sicmodule.glev.cn/news/3275.html 资讯 企业新闻 行情 企业黄页 同类资讯 首页 网站地图 返回首页 歌乐夫资讯移动站 http://sicmodule.glev.cn/mobile/ , 查看更多