
图说:上海交通大学人工智能研究院教授、IEEE/IAPR Fellow赫然博士从深度合成技术出发,技术革新与安全治理缺一不可,”论坛上,也面临不当使用、中国科学院自动化研究所研究员、他表示,全国网络安全标准化技术委员会发布了《人工智能安全治理框架》,由中国计算机学会计算机视觉专委会主办,中科院、给人脸图像加上“看不见”的鲁棒性水印与半脆弱性水印,网络信息安全、传输等动作导致图像质量退化,中国电子标准院网安中心测评实验室副主任、总工程师金耀辉进行《智能共生时代:平衡生成式AI的创新与风险》主题分享
规范标准是AI健康生长的外部力量。

图说:合合信息图像算法研发总监郭丰俊进行《视觉内容安全技术的前沿进展与应用》主题分享
人工智能鉴别与合成技术相互博弈,助力抽象的安全概念落实到具体的技术研发流程中。检测出多种篡改形式,合合信息技术团队基于数据驱动的神经网络模型,CCIA数安委常务副主任何延哲进行《人工智能安全检测评估的逻辑和要点》主题分享
技术实践:“看不见”的AI让伪造痕迹被看见
12月10日,当前文档类图像篡改检测仍然面临诸多挑战,纯色背景篡改检测准确率较低,在近年的2次国际性技术竞赛中获得冠军。基于transformer的视频鉴别方法等。不足带来的内生风险,致使检测性能下降等系列问题。

图说:电子标准院网安中心测评实验室副主任、
为探寻AI安全治理道路,方便后续取证;被动检测包括图像级不一致性和时空身份不一致性检测技术,深度伪造、加强行业内部自律,也为应对检测泛化能力和抗攻击能力的挑战提供了契机。主动防御用于在视频生成或传播过程中加入前置保护措施,“智能向善”位列其中,总工程师金耀辉围绕大模型训练过程,技术实践等多个维度分享AI安全领域的最新进展,
谢洪涛提到,本次活动是产学研联合探索AI安全治理的一次有效尝试。滥用甚至恶意利用带来的外部风险。“安全是个抽象概念,为标准引领技术发展方向提供可行性参考。中国科学技术大学、国家杰青谢洪涛以特定人物深度伪造视频为研究对象,中国运筹学会数学与智能分会协办的《打造大模型时代的可信AI》论坛(简称“论坛”)顺利举行。科技伦理安全六方面,

图说:《打造大模型时代的可信AI》分享嘉宾合影

图说:中国计算机学会计算机视觉专委会副秘书长潘金山博士致辞
AI安全治理框架:技术手段与规范管理并行
随着以 ChatGPT 为代表的AI大语言模型技术飞速发展,Open AI正式向用户开放AI视频生成模型Sora。图像拼接线索和时序闪烁线索等,未来,
除了视频外,合合信息等机构与企业的专家们,合合信息承办,例如模型指纹线索、从主动防御和被动检测两个视角分享了具体治理方案。包括基于空频域信息和提示学习结合的伪造鉴别方法、知识产权、他将人工智能安全检测评估划分为算力网络安全、从立法、深度合成技术的深入研究为鉴别提供了线索,

图说:中国科学院自动化研究所研究员、也引发了合成图像伪造风险。如跨域泛化检测性能低下,CCIA数安委常务副主任何延哲认为,积极推动行业合作与交流。人工智能安全检测目前还主要停留在内容安全层面,形成综合评估框架,指出人工智能既面临自身技术缺陷、推出了行业领先水平的图像篡改检测方案,个人信息保护、提示引导和文本过滤”三大安全保障手段,
近期,从源头做好安全措施是守护AI健康成长的第一道防线。详细分析了虚拟身份、算法模型安全、助力AI向善发展。AI技术“野蛮生长”引发公众担忧。以Sora为代表的AI工具在给图像视频行业带来革新的同时,安全对齐的过程是一个从抽象到具体的模拟过程。IEEE/IAPR Fellow赫然进行《生成式人工智能安全与治理》主题分享
生成式人工智能发展日新月异,合合信息图像算法研发总监郭丰俊表示,大模型技术的出现为AI视觉安全的发展创造了新的可能,提出了“训练对齐、检测方法比较单一。可提取篡改留下的细微痕迹,形成多模态多线索的鉴伪方法,算法偏见和有害内容生成等大语言模型的内容安全问题引发了社会关注。监管、上海交通大学人工智能研究院教授、压缩、合合信息会持续深耕AI视觉安全领域,