多客科技 发表于 2025-4-1 05:05

AI 通过超高难度法考;AI 作品不受版权法保护;Open AI 要求禁止 Deep Seek……三月法律 AI 资讯汇总

作者:微信文章



李小武

iCourt AIGC 研究所首席专家



随着 AI 在律师工作中占据越来越重要的位置,了解 AI 新功能、技术趋势、法律 AI 动态,以及与 AI 相关的法律法规政策,成为法律人获取资讯的新需求。

律界 AI 指南将在每月初,汇总过去一个月里重要的法律 AI 资讯。以下为 3 月法律 AI 资讯汇总,过去一个月,DeepSeek 和 ChatGPT 依然稳居 AI 热门话题前列。



ChatGPT AI 图片功能火爆全球,

Open AI 宣布延迟向免费用户开放

3 月 25 日,Open AI 正式推出了 GPT-4o 内置的图片成声功能,允许上传和编辑图片。由于其可玩性、实用性及生成效果均超预期,受到了全球用户的追捧。用 GPT 生成宫崎骏风格的画作、替代 PS 进行图片修改,成为最热门的使用场景。



该功能发布次日,Open AI CEO 萨姆·奥特曼在推特上发文表示,由于用户需求远超预期,原本计划向免费用户推出的 ChatGPT AI 图片功能将会延迟。

从近期 Open AI 的动态来看,算力不足成为其最大的限制,去年 12 月 Sora 发布会,Open AI 便暂停了新用户注册,这次免费用户延迟体验 AI 图片,应当也是算力不足的原因。

资讯来源:网络



美国上诉法院认定:

AI 自主生成作品不受版权法保护

3 月 18 日,美国华盛顿特区联邦巡回上诉法院作出历史性裁决(案号:No.23-5233),明确完全由人工智能在无人类直接参与情况下生成的作品不受美国版权法保护。法院指出,1976 年《版权法》的文本、结构和立法历史均表明“作者”须为人类,这一要求构成版权制度的基石。

案件源于计算机科学家 Stephen Thaler 2019 年提交版权申请,声称其开发的 AI 系统“创造力机器”自主创作了视觉艺术作品《通往天堂的新近入口》,并将 AI 列为唯一作者,自己仅主张作品所有权。美国版权局以缺乏人类作者为由驳回申请,Thaler 诉至法院。

法院一致裁定,援引 1978 年美国国家版权新技术应用委员会(CONTU)观点,认为计算机仅为人类操控的“惰性工具”,该立场已被国会所采纳。法院强调,尽管AI辅助人类创作的作品可受版权保护,但完全由AI自主生成的作品不具保护资格,若未来需要调整相关标准,应由国会而非法院决定。

资讯来源:知产财经



法律 AI 产品 AlphaGPT 升级合同审查功能,操作更简单

3 月 26 日,专为法律人打造的 AI 产品 AlphaGPT 发布功能更新,针对“合同审查”功能进行了两项优化。

第一项优化全面解禁了合同类型。以往进行合同审查时,上传合同后需手动选择合同类型,升级后 AlphaGPT 加深了合同审查板块与 DeepSeek R1 的结合,使得大模型可以更好地从合同的实际背景、交易过程、目的、权利义务等角度出发,充分理解合同并自动区分合同类型,从而具备审查各种复杂合同的专业能力。

用户也不再需要选择合同分类,直接从模型提取的审查立场中进行选定就可以进行审查了,操作更加简单也更加智能。



第二项优化为新增“审查尺度”功能,审查效果更贴合交易背景。更新后,审查可分为弱势、中立、强势三类,用户根据合同背后的交易背景、我方对合同的审阅力度等多方面入手,通过调整审查尺度来影响模型的审查效果,从而得到更加满意的审查意见。



此次更新用户无需额外操作,登录在 AlphaGPT 页面即可直接使用最新版本。

资讯来源:Alpha



AI 通过韩国高难度“律考”,

法学院毕业生合格率仅为 53%

韩国法律 AI “Super Lawyer”在高难度的律师考试中获得合格分数。在公法、民事法、刑事法相关的 150 道题中,AI 答对 111 题(正确率 74%),考试合格线为103题。“高材生”才能上的法学院毕业生合格率仅为 53%,而“Super Lawyer”的成绩跻身前 30%。这是对韩国国内所有 495 万件法令和判例、600 本法律书籍进行学习的结果。

为什么 AI 没能拿到 100 分?在以判例为中心的英美法体系中,只要 AI 好好学习判例,很容易选出正确答案。相反,在韩国这样以法典为中心的大陆法体系中,由于法官对法律拥有解释的余地,很难训练 AI 选出正确答案。“Super Lawyer”开发组组长解释说:“‘找出对的、错的’这种问题很容易解决,但要求‘选择符合法律宗旨的所有解释’等综合推论的问题,是很难解决的。”

这意味着 AI 无法取代律师,只是会成为比人类更出色的助理。

资讯来源:环球时报



OpenAI 提议在美国禁止 DeepSeek 语言模型,遭网友嘲讽

3 月 14 日,OpenAI 向特朗普政府的 “人工智能行动计划”(AI Action Plan)提交了一份政策提议,建议美国政府考虑禁止 DeepSeek 及其他中国公司提供的 AI 模型,理由是这些模型可能不符合美国的安全要求,且与中国的关联性被强调为潜在风险。

这一提议不仅针对 DeepSeek,还涉及所有来自中国或其他不友好国家支持的公司开发的语言模型。OpenAI 认为,这些模型的使用可能威胁到数据的保密性和安全性,包括知识产权的盗窃风险。尽管 DeepSeek 采用开源模型策略,但这并不自动使使用这些模型的第三方面临数据保密性风险,企业用户仍有能力确保信息保密。

OpenAI 此前曾指责 DeepSeek 使用其语言模型进行训练,现在则以信息安全为由提出更严格的限制。然而该提议发表后,受到了美国网友的嘲讽:



资讯来源:oschina



DeepSeek 拒绝转向商业发展模式

据英国媒体《金融时报》消息,中国人工智能企业 DeepSeek 创始人梁文锋拒绝效仿硅谷竞争对手通过短期销售激增获利的模式,并表示 DeepSeek 的核心竞争力在于长期技术积累而非短期市场热度,未来公司将继续坚持“基础研究优先”的战略方向。

另据知情人士消息,DeepSeek 上月收入首次覆盖运营成本,证明其商业化进程已取得阶段性突破。消息称,公司正将 80% 以上资源投入模型开发,重点推进原定 2025 年 5 月发布的 R2 和 V4 模型研发,进度可能提前。这两款模型将采用深度优化的分布式架构,在保持高性能的同时降低算力消耗。

行业分析指出,DeepSeek 的“研究优先”模式正在重塑 AI 行业竞争格局,其开源策略已吸引全球 300 余家科研机构参与生态建设,累计下载量突破 500 万次。尽管面临美国技术封锁压力,但通过算法创新实现的技术突破,正在推动中国 AI 产业从"跟跑"向"领跑"转型。

资讯来源:金融时报、驱动中国网络传媒



媒体观点:为什么现在的 AI 系统

比以往任何时候都需要“红队”?

在网络安全的测试中,红队和蓝队代表网路安全测试演习中的两个主要参与者。 红队负责评估组织的系统和安全性是否有潜在弱点,模拟现实世界的攻击者;蓝队的作用是准确模拟组织如何回应红队的攻击,使组织能够识别其安全流程和架构中的任何缺陷。

文章认为,目前的 AI 比过往任何时候都更需要红队来测试其安全性和可靠性,它不仅有助于发现技术漏洞,还能揭示 AI 系统中的偏见和安全问题,从而保护用户利益和。在法律、金融、医疗和自动驾驶等关键领域,红队测试尤为重要,因为它能帮助识别和修复系统中的薄弱环节,确保 AI 技术的伦理和负责任部署。

这一文章也提醒 AI 用户,要对当前 AI 工具的安全性和可靠性保持警惕。
资讯来源:HackRead

以上是律界 AI 指南三月份法律 AI 资讯汇总,律界 AI 指南将在每月初,汇总过去一个月里重要的法律 AI 资讯。

关注律界 AI 指南,回复“ 5 ”,即可获得 5 个律师一定要用的实用 AI 工具推荐。

页: [1]
查看完整版本: AI 通过超高难度法考;AI 作品不受版权法保护;Open AI 要求禁止 Deep Seek……三月法律 AI 资讯汇总