网络安全快照:OpenAI老板打国会山,监管风暴云的形式在AI La La土地
![作为OpenAI老板打国会山,监管风暴云的形式在AI La La土地](http://www.yyueer.com/sites/default/files/images/articles/As%20OpenAI%20Honcho%20Hits%20Capitol%20Hill%2C%20Regulatory%20Storm%20Clouds%20Form%20Over%20AI%20La%20La%20Land.jpg)
检查出OpenAI首席执行官告诉国会议员在国会关于调节AI。与此同时,一场即将到来的欧盟法律就会抽筋ChatGPT的风格。此外,公众对AI的咬指甲是真实的。此外,一个新的人工智能聊天机器人可能很快回答你燃烧关于黑暗的网络的问题。和更多!
深入六事介意5月19日当周的顶部。
1 -奥特曼先生去华盛顿
活泼的讨论有多少政府控制应该在人工智能(AI)产品继续在全球范围内,网络安全团队应该密切关注监管风吹。
本周最新的高调辩论发生在华盛顿特区,where Sam Altman, CEO of ChatGPT-maker OpenAI, testified before the U.S. Senate Judiciary Committee’s Subcommittee on Privacy, Technology and the Law.
![OpenAI首席执行官Sam Altman 2023年5月在国会作证](http://www.yyueer.com/sites/default/files/inline-images/openai-lockup.png)
后详细的好处OpenAI生成的人工智能产品和他们的隐私和安全特性,奥特曼告诉国会议员,防止人工智能监管是关键被误用和滥用,但也警告不要过度的政府监管。
“OpenAI认为AI的监管是必要的,和我们渴望帮助决策者决定如何促进监管平衡激励安全同时确保人们能够访问技术的好处,”他说。
那么奥特曼推荐到美国国会考虑AI法律法规吗?这里只简单介绍一下:
- 要求AI公司提交他们的产品不仅内部也外部测试之前释放它们,并公布结果
- 从美国政府调整其灵活性AI规则因为人工智能技术是复杂和迅速的发展
- 全球合作政府间法律法规草案
“我们认为,政府和行业一起可以管理风险,这样我们都可以享受巨大的潜力,”奥特曼说。
有关更多信息,请查看奥特曼准备的讲话;覆盖范围从Gizmodo,政治报和《卫报》;和这些视频:
最高的时刻从ChatGPT创造者的国会证词(CNET)
OpenAI CEO对人工智能在参议院司法委员会作证(福布斯)
2 - AI专家:生成AI旅行AI程序负责
随着组织采用生成人工智能技术,大部分的AI (RAI)负责项目都没有准备好应对风险。至少,这是大多数人工智能专家的意见咨询由麻省理工学院斯隆管理评论和波士顿咨询集团。
大多数RAI项目准备应对新的生成人工智能工具的风险
![人工智能专家说生成AI旅行AI程序负责](http://www.yyueer.com/sites/default/files/inline-images/AI%20experts%20say%20generative%20AI%20trips%20responsible%20AI%20programs.png)
(来源:麻省理工学院斯隆管理评论,基于调查的19 AI专家)。
专家小组确定了三个主要的原因为什么组织的挣扎与管理风险的生成人工智能工具:
- 这些工具是“定性”不同于其他人工智能产品
- 这些工具引入人工智能的新类型的风险
- RAI计划跟不上生成人工智能发展
还有希望,根据麻省理工学院斯隆管理评论文章标题”负责生成AI人工智能程序准备好了吗?专家对此表示怀疑。”
“我们的许多专家断言,一个强调RAI核心原则的方法嵌入到一个组织的DNA,加上一个RAI程序,不断适应解决新的和不断发展的风险,可以帮助,“读这篇文章,它概述了详细的建议。
关于负责任的AI的更多信息:
- ”8负责任地使用人工智能问题,回答”(哈佛商业评论)
- ”负责人工智能在风险:理解和克服第三方AI的风险”(麻省理工学院斯隆管理评论)
- ”CSA提供指导如何使用ChatGPT安全地在你的组织”(成立)
- ”如何与生成人工智能AI伦理是涌现”(ComputerWeekly)
- ”ChatGPT使用会导致侵犯隐私数据”(成立)
3 -调查:AI给大多数美国heebie jeebies
AI在美国有很多人担心,即使技术用于网络安全防御的目的。
在一个益普索在线调查本周公布的1117名美国成年人中,只有16%的人说他们“很舒服”的使用人工智能评估网络安全威胁。其余评价自己“有些舒适”(42%)、“不太舒服”(26%)和“不舒适”(16%)。
益普索也发现,几乎一半的受访者(46%)认为人工智能工具正在开发过快,而30%的人说他们在正确的开发速度。
与此同时,一个单独的路透社/益普索调查4415名美国成年人进行了在线也本周公布的发现:
- 61%的受访者认为人工智能”对人类构成威胁”,相比之下,只有22%的人反对,17%的人没有发表意见
- 超过三分之二的受访者担心艾未未的负面影响
类似的担忧AI的负面影响也出现在另一项调查范围窄一些。在一个以上的在线调查400年Boston.com的读者,只有15%的人宣称自己“漠不关心”或AI持乐观态度,而其余感到关注,27%的人“有些担忧,“40%的人自称是“非常担心”,18%的人说他们“接近恐慌。”
人工智能的有关公众的更多信息:
- ”有限的热情在美国人工智能在日常生活中日益增强的影响力”(皮尤研究中心)
- ”MITRE-Harris民意调查显示,美国人之间缺乏信任的人工智能技术”(斜方)
- ”为什么我们如此害怕AI ?”(《华盛顿邮报》)
- ”ChatGPT认为美国人兴奋的人工智能。大多数不是。”(FiveThirtyEight)
- ”美国人支持国会AI行动”(技术监督项目)
4 -欧盟AI定律可以摇滚ChatGPT的世界
我们监控建立法律和监管护栏在AI在全球范围内,主要发展将是欧盟的AI法律的颁布,审批流程的游行。
称为人工智能行为,法律,除此之外,可能会迫使一些AI供应商像ChatGPT OpenAI证明他们的产品并不违反版权法的训练数据的基础。
在一个公告上周,欧洲议会被列出的人工智能法的最新进展和关键的新增和修改草案,包括特定条款旨在生成的人工智能产品。
“生成基础模型,就像GPT,必须符合额外的透明度要求,披露的内容是由人工智能生成,设计模型来防止产生非法内容和发布版权的摘要数据用于训练,“读取语句。
更多信息:
- ”欧洲瞄准ChatGPT可能很快是西方第一个人工智能法”(CNBC)
- ”欧盟和美国人工智能监管发散”布鲁金斯学会()
- ”大量采用生成人工智能加速监管计划”(Infosecurity杂志)
- ”欧盟立法者的透明度和安全规则生成的人工智能”(TechCrunch)
视频
人工智能监管和隐私:AI行业立法如何变换(雅虎财经)
欧盟的AI行为:指南了解人工智能调节的雄心勃勃的计划(用)
5 - DarkBERT你好,我的新朋友
你有疑问黑暗的web -邪恶,令人毛骨悚然的互联网无法无天的统治在哪里?DarkBERT可能很快会来帮忙的。
生成的人工智能聊天机器人是一群韩国研究人员想要提供一个大的语言模型(LLM)可以协助网络安全研究黑暗的网络。他们训练DarkBERT在这丑恶的互联网通过爬行Tor网络的一部分。
“我们表明DarkBERT优于现有的语言模型和评估web上黑暗域的任务,以及引入新的数据集,可用于此类任务。DarkBERT显示承诺在其适用性在未来的研究在黑暗中web域和网络威胁的行业,”研究人员在他们写道论文对人工智能聊天机器人。
DarkBERT还没有提供给公众。其创造者计划发布它在某种程度上,但他们没有指定的一个日期。
更多信息:
- ”DarkBERT是理解语言的AI的黑暗”(Crast)
- ”科学家训练新的人工智能完全黑暗的网络上”(未来主义)
- ”黑暗Web ChatGPT释放:DarkBERT见面”(汤姆的硬件)
- ”满足DarkBERT,黑暗中网络上唯一的人工智能训练”(IFLScience)
- ”新的AI DarkBERT黑暗网络上训练”(Dexerto)
6 - CIS白皮书解决物联网安全
网络安全中心(CIS)刚刚发表白皮书”物联网:嵌入式安全指导”,目的是帮助物联网供应商更容易构建安全到他们的产品设计和默认。
独联体首席技术官凯瑟琳·莫里亚蒂,白皮书的作者在解释道博客74页的文档提供的建议和审查研究物联网专家,这不仅可以通过物联网供应商也是他们的客户。
“如果你是一个组织,你可以跟你的供应商在嵌入式物联网安全需求为你的产品。具体可以使用这个文档作为一个教育工具和潜在的为供应商提供它作为一个指南,”她写道。
关于物联网的安全的更多信息:
- ”物联网安全收购指导”(CISA)
- ”十个最佳实践来保护物联网在你的组织中”(网)
- ”4先进的物联网安全最佳实践来增强你的防御”(TechTarget)
- ”获得物联网供应链”(物联网安全基金会)
- ”NIST网络安全物联网项目”(NIST)
视频
物联网设备让你的网络不安全的吗?(网络灰质)
相关文章
- 云
- 风险管理
- 基于风险的脆弱性管理
- 网络安全中心(CIS)
- 云
- 网络安全快照
- 风险管理
- 基于风险的脆弱性管理