按提交时间
按主题分类
按作者
按机构
  • 赋能养老金融发展的机遇、挑战与实践路径

    分类: 应用经济学 >> 金融学 提交时间: 2024-08-23 合作期刊: 《新金融》

    摘要:近年来,生成式人工智能(GAI) 迅速迭代,ChatGPT以其突破性算法与交互模型为金融行业发展带来创新探索浪潮,特别是2024 年5 月发布的ChatGPT⁃4o,为生成式人工智能赋能养老金融提供更为高效的技术实现路径。本文基于技术⁃经济范式,分析GAI 通过提供更多信息、发现新知识与规律、提供新方向以及为养老金融应用实践探索新场景等,为养老金融发展提供更多机遇,同时也带来一些问题与挑战。为此,应从加强金融素养培育、严格养老金融数据使用与管理、注重隐私与安全保护以及探索GAI应用场景等方面着手,合力推动其使用的规范与安全,助力GAI更好地赋能养老金融,以推动中国养老金融的高质量发展。

  • 发展前景下公共性的消解及重建

    分类: 哲学 >> 科学技术哲学 提交时间: 2024-09-03 合作期刊: 《南通大学学报(社会科学版)》

    摘要:生成式人工智能的发展构成了数字资本主义发展的高级节点和最新样态。随着以 ChatGPT和Sora等为代表的生成式人工智能的升级选代与日常化应用,生成式人工智能日趋成为推动人类公共性扩张和变革的关键要素。数字资本主义生产方式在本质上带有“反公共性”的逻辑,数字生产资料作为数字劳动的产物被数字平台所有者私人占有,其发展与公共性产生了严重抵牾,私人所有”的数字平台所炮制的“公共使用”的美丽骗局更是进一步蚕食了公共性。生成式人工智能发展前景下人类公共性的消解突出表现为公共性主体渐趋“自我中心化”公共性信息渐趋“同质茧房化”公共性领域渐趋“碎片分裂化”。基于此,揭露数字资本主义生产方式的反公共性逻辑,重构数字生产关系,发展平台社会主义,呼唤数字技术公共性本质的价值回归,引导数字技术公共性放应的发挥,不失为重建人类公共性的现实通道。

  • 现阶段在档案开发利用中的应用瓶颈分析——以ChatGPT类人工智能为例

    分类: 信息资源管理 >> 档案学 提交时间: 2024-07-22 合作期刊: 《档案与建设》

    摘要:生成式人工智能虽然具有令人惊叹的强大功能、惊人的更迭速度和广阔的应用前景,但是现阶段将其应用 于档案开发利用尚存在诸多瓶颈。文章分三个阶段分析了生成式人工智能应用于档案开发利用的瓶颈所在,认为数据 准备阶段在数据库层面和数据量层面均存在发展瓶颈,内容生成阶段在内容生成机制和内容生成结果两个方面存在风 险,社会传播阶段瓶颈产生的根源则主要包括其高并发性和强破坏性。

  • 应用的伦理立场与治理之道:以ChatGPT为例

    分类: 法学 >> 法学理论 提交时间: 2024-05-09 合作期刊: 《华东政法大学学报》

    摘要:随着以ChatGPT为代表的生成式人工智能技术的突飞猛进,人工智能的伦理问题受到了广泛关注。生成式人工智能引发了削弱人类主体价值、加剧算法偏见与歧视、过度依赖拟态环境输出结果、人机协作双向价值对齐困难等伦理难题,亟须从人工智能伦理治理组织机制、人工智能伦理规范机制两方面入手,明确生成式人工智能应用中的人本主义立场,建构生成式人工智能治理的伦理规则,为增进人类福祉提供有力的伦理支撑。

  • 训练数据的风险与治理研究

    分类: 法学 >> 宪法学与行政法学 提交时间: 2024-10-31 合作期刊: 《海南开放大学学报》

    摘要:生成式人工智能技术目前正处于蓬勃发展时期,但其在训练数据收集和处理时,潜在的合规、泄露和偏见等风险时刻威胁着生成式人工智能技术的健康发展、扰乱社会秩序,成为生成式人工智能治理必须解决的问题。我国目前对生成式人工智能训练数据风险治理既有政策支持,又有法律保障。在这些基础上,行政机关可以建立生成式人工智能基础模型信息库,预防训练数据合规风险;也可以开发、使用合成数据,扩大训练数据来源,规避训练数据泄露风险;还可以通过适当细化训练数据审核制度和逐步实施生成式人工智能企业数据信用制度的方式,规范生成式人工智能训练数据使用行为,降低风险发生概率。

  • 作为核心驱动力的训练数据的治理研究

    分类: 信息资源管理 >> 情报学 提交时间: 2024-10-21 合作期刊: 《情报资料工作》

    摘要:[目的/意义]当前研究对于生成式人工智能训练数据的治理问题关注较少。然而,训练数据的生命周期中存在着诸多不容忽视的风险,亟需有效的治理。[方法/过程]文章在论证了训练数据是生成式人工智能核心驱动力的基础上,使用数据生命周期的理论模型,全面归纳了训练数据生命周期中可能出现的风险样态。然后,从训练数据自身特性、生态性因素与生成式人工智能开发者操作性因素等角度分析了相关风险的成因。[结果/结论]数据本身的碎片化特性与偏见性是风险发生的起点;数据的生态失衡是风险发生的外部成因;同时,“黑箱”中的训练数据、偏差的数据标注与懈怠的数据脱敏则是风险发生的内在成因。由此,针对训练数据的特性,可以借助“可怜圆点”的框架,为其构建一个综合法律、市场、社群规范以及架构的风险治理方案。

  • 数据安全风险及其应对

    分类: 信息资源管理 >> 情报学 提交时间: 2024-05-27 合作期刊: 《情报资料工作》

    摘要: 目的/意义 生成式人工智能的广泛应用催生了多重数据安全风险,传统的回应型治理和集中式治理模式显然难以应对新挑战,而敏捷治理则以其灵活的姿态彰显了独特的优越性。 方法/过程 首先,梳理生成式人工智能在数据安全领域引发的多重风险,进而对三类治理模式在风险管理上的成效进行对比分析,在此基础上提出我国应当尽快实现治理模式转变。然后以此为指导,构建具体的治理制度。 结果/结论 敏捷治理模式凭借其适应性、柔韧性和包容性特质,为应对生成式人工智能等新兴技术的数据安全风险提供了有效的方案,能够在实践中不断优化生成式人工智能数据安全治理体系。在敏捷治理模式下,应当树立“预防与应对并重”的适应性治理理念,构建“多元参与,合作互动”的韧性治理机制,运用“技术叠加法律”的包容性治理工具,从而形成综合的生成式人工智能数据安全治理体系。

  • 时代的语言安全:系统性风险与治理路径

    分类: 政治学 >> 国际政治 提交时间: 2024-09-14 合作期刊: 《国际安全研究》

    摘要:随着生成式人工智能(Generative AI)的快速发展和广泛应用,语言安全逐渐超越了信息和文化安全等传统国家安全界限,在语言技术、语言认知、语言行动等维度面临新的挑战。识别和分析生成式人工智能时代的语言安全,把握其理论内涵和风险生成机制,对预防和化解语言安全风险意义重大。本文探究生成式人工智能时代语言安全的理论内涵及其构成要素,基于“技术—认知—行为”的分析框架厘清该时代语言安全风险的生成机理,提出针对性的治理策略。生成式人工智能时代语言安全的理论内核和构成要素呈现出技术、主体与社会互嵌的特性。语言安全在生成式人工智能技术研发和应用的不同环节存在差异化和动态化的语言风险样态和逻辑。针对生成式人工智能带来的语言安全风险提出制定和实施高层次国家语言安全战略、建立生成式人工智能自主生态体系、提高该技术的透明度与可解释性、开发多语种模型、提升公众数字素养和语言安全意识等治理对策。

  • 我国研究的热点、作者与期刊

    分类: 信息资源管理 >> 情报学 分类: 信息资源管理 >> 图书馆学 提交时间: 2024-09-06

    摘要:共被引分析是一种揭示领域知识结构的重要方法。生成式人工智能(AIGC)受到各界关注并获得广泛研究,对国内AIGC领域发文成果进行共被引分析和结果解读,揭示AIGC研究的热点和发展趋势。由于目前国内知识门户如知网、万方等缺乏导出文献引文数据能力。本研究综合利用Selenium、Python和大语言模型实现一键式引文数据采集,自动化完成数据处理、重构和合并。并针对“生成式人工智能”研究领域,借助CiteSpace开展文献共被引、作者共被引和期刊共被引分析研究。当前我国AIGC研究热点主要集中于法律风险与伦理挑战,教育领域的创新与变革、智能传播环境下的机遇和挑战,以及图书馆智慧知识服务;核心作者主要集中于法学领域;核心期刊主要涉及法学、新闻传播学、教育学、信息资源管理等学科领域。同时本研究相关代码已在Gitee开源,对推动国内共被引分析研究具有一定的现实意义。

  • 档案产品的真实性维护

    分类: 信息资源管理 >> 档案学 提交时间: 2024-07-22 合作期刊: 《档案与建设》

    摘要:生成式人工智能可为档案信息资源开发提供新的思路,甚至可能催生出智慧档案开发新范式。文章从生成 式人工智能档案产品的概念和类型入手,对其真实性维护的重要性进行分析,认为其真实性失范的风险源主要包括语料 库的数据污染、生成机制的负向力、社会传播的不可控,并提出可以从坚持谨慎性原则、建设纯净语料库、强化专业性训 练、加强用户的管控等方面发力,对生成式人工智能档案产品的真实性进行维护。

  • ChatGPT赋能智慧法院建设:机遇、挑战和规制

    分类: 法学 提交时间: 2024-07-02 合作期刊: 《重庆邮电大学学报(社会科学版)》

    摘要:ChatGPT类生成式人工智能在海量的数据、优质的算法与强大的算力支撑下能够实现多项技术赋能。但ChatGPT类生成式人工智能是否能够适用到智慧司法领域,以及在何种程度上将其嵌入,尤其是该项技术在赋能智慧法院建设过程中的边界如何,这对于深层次建设智慧法院具有重要的前提性意义。ChatGPT类生成式人工智能技术通过审判活动的智能化运用,可促进可视正义的实现;通过诉讼服务的可及性,可实现司法为民理念;通过公平与效率的动态平衡,可实现能动司法目标。然而,ChatGPT类生成式人工智能在带来上述诸多技术红利的同时,也引发了一系列新的风险,具体可以划分为由数据“幻觉性”引发的一般风险、由技术垄断性导致的重要风险以及由数据不可控产生的核心风险。对这些风险,应根据不同的风险特征采取相应的规制路径:可以通过对训练数据库的标准化构建以实现数据的“幻觉性” 规制,通过辅助性原则的引入而实现技术规制,通过对服务提供者科加义务以实现对数据不可控的数据规制。即运用数据“幻觉性”规制、技术规制与数据规制,实现对ChatGPT类生成式人工智能技术嵌入的一般风险、重要风险与核心风险的防范,以期完成ChatGPT类生成式人工智能技术嵌入智慧法庭建设的风险最小化与技术赋能最大化,最终实现该项技术高质量赋能智慧法院建设。

  • 从Midjourney到Sora:生成式AI与美学革命

    分类: 哲学 >> 美学 提交时间: 2024-06-06 合作期刊: 《阅江学刊》

    摘要:深刻影响时代的技术,已然关乎人类对世界与自我之认知的深化问题。从Midjourney、Sora到更近的Genie,人工智能技术向我们呈现出人类与世界进行深层次的,甚至在物理底层的重新展开沟通的可能性。在此意义上,AIGC就绝不局限于“AI generated content”这一定义,而是可以被重新定义为“animpossibly great civilization”。据此,我们可以对“人际互动”与“人机互动”做出对勘式反思:在日常生活中,对他人的反应往往是由一系列事件和话语累积所触发的;而在与AI交谈时,人们话语的选择同样决定了AI生成内容的质量和倾向。世界在物理/政治意义上的化成诚然在本体论意义上需要“互动”(interaction),尤其在经由生成式AI所掀起的美学革命中,要点并非定义“美”而是在互相触动中去创造“美”。在人与人、人与非人类的不预设界限的创造性合作中,这个世界才有真正的美的可能性。 

  • 的内在价值及“个体一组织一世界”的协同应对策略

    分类: 新闻传播学 提交时间: 2024-10-18 合作期刊: 《现代传播-中国传媒大学学报》

    摘要:生成式人工智能(AIGC)作为一种颠覆性的数字技术,将构建一个创造力勃发、高度互联共享的世界,并引发人类的深度反思。人们对AIGC的担忧是由物质世界的生存问题、人性的弱点以及强大的外在力量三个方面导致的,根本原因是过于功利主义的思维模式。要战胜这些担忧,只有真正理解AIGC的内在价值,把它作为一种知识,用科学的方法去应对。其内在价值可以从技术、社会、文化和哲学四个维度进行理解。当前迫切需要个体、组织、世界三者协同共同建设一种新形态的数字文明。个体可从主动地学习、认识和实践方面努力。组织应加强制度设计、有效治理和条件保障,形成政府引导、市场主导、社会参与的推进格局。在世界层面,各国需深化交流互鉴,促进研发创新,建构制度规范,共同应对AIGC带来的挑战。

  • AIGC赋能中华优秀传统文化的传播逻辑与战略思路

    分类: 新闻传播学 >> 传播学 提交时间: 2024-10-08 合作期刊: 《海南开放大学学报》

    摘要:生成式人工智能———AIGC成为一种崭新的文化生产形态,为中华优秀传统文化的传播和发展提供了新的历史机遇。在国家文化数字化战略指导下,AIGC赋能中华优秀传统文化体现在技术、文化和人的互动,表现丰富的文化内涵,不仅推动了内容创作生态,也在中华优秀传统文化传播中起着举足轻重的作用。AIGC的出现将成为新质生产力生成的内在动力,其对于文化传承与传播的推动作用不容小觑。通过对AIGC赋能中华优秀传统文化的传播逻辑的研究,探索AIGC赋能中华优秀传统文化的战略思路,分析如何充分发挥生成式人工智能在文化传播中的赋能作用,进而构建新型的文化传播生态,实现内容与技术的优势互补,拓展可能与可为之空间,促进中华优秀传统文化的现代表达和国际传播。

  • 的数据风险及其法律规制

    分类: 法学 >> 法学理论 提交时间: 2024-09-12 合作期刊: 《重庆邮电大学学报(社会科学版)》

    摘要:生成式人工智能在引领技术变革的同时也引发了诸多法律风险。根据生成式人工智能的运行机理,可以发现其中存在四大类数据安全风险,其主要原因在于算法高度信任对法益保护的冲击、技术演变中科技伦理规范的缺失以及用户数据主体权利保障不足等。针对生成式人工智能在数据输入阶段的数据源合规风险,研发企业内部应制定具有可操作性的数据合规计划,并在合规计划中制定详细具体的风险规制措施,强化企业合规经营:与此同时,通过多种措施积极响应用户对于数据主体权利的请求,确保模型训练数据来源合法合规。针对生成式人工智能在模型处理阶段的算法黑箱与算法偏见风险,应加大监管力度,重点关注算法的安全性与公平性,积极推进并完善相关立法,细化算法备案和算法解释义务,提高算法技术透明度,落实算法主体责任。针对生成式人工智能在内容输出阶段的数据滥用风险,应优化监管机制,实现全链条合法性监管,完善科研伦理规范并予以实质审查,引领技术向善,实现科技向善治理。针对生成式人工智能在数据存储阶段的数据泄漏风险,应通过技术与管理制度相结合的方式进行全方位规制,严格控制数据共享范围并贯彻数据分级分类保护,及时有效地防范数据泄露风险。

  • 产品责任认定研究

    分类: 法学 >> 民商法学 提交时间: 2024-07-04 合作期刊: 《南京邮电大学学报(社会科学版)》

    摘要:生成式人工智能产品在责任认定上存在特殊性,选择过错责任而非严格责任作为生成式人工智能产品责任的主要归责原则,有助于实现“预防风险鼓励创新”的价值目标。对人工智能产品技术支持者的责任认定,可以类推适用产品责任中的现有技术抗辩,即以“现有技术水平”作为认定其是否存在过错的标准,而“现有技术水平”的具体内涵需要结合时间和行业两个维度综合考量。对人工智能产品服务提供者的责任认定,不宜类推适用避风港规则,可以类推适用公共场所、经营场所管理者所承担的安全保障义务,也就是以安全保障义务的有无和履行情况判断其过错。

  • “黑镜”中的对垒:背景下网络意识形态风险与防范

    分类: 综合学科 >> 综合学科 提交时间: 2024-04-23 合作期刊: 《社会科学战线》

    摘要:近年来, 生成式人工智能快速发展并渗入意识形态领域, 通过大量发表含有意识形态内容的言论和信息、 围绕和设置议题展开社会动员、 炒作政治人物人气、 干扰主流意识形态传播渠道等方式, 使得互联网意识形态领域面临的风险呈现自动化、 智能化趋势。 作为 “对象化的知识力量”, 生成式人工智能在本质上是属人的, 其在意识形态领域活动的行为逻辑主要依据利益与兴趣诱导、 从众心理、 强势意见压力等对人们施加意识形态影响。 对此, 需结合社会思维和技术逻辑, 从认知、 制度和技术等层面, 防范生成式人工智能可能引发的网络意识形态风险。 

  • 面向的档案数智化服务应用场景探索

    分类: 信息资源管理 >> 档案学 提交时间: 2024-09-30 合作期刊: 《档案与建设》

    摘要:档案数智化服务是数智时代兴起的一种新型档案信息服务形态,兼具数字化和智能 化的双重特性,是档案事业创新发展的趋势。生成式人工智能为档案数智化服务探索带来了新机 遇。文章首先调查并分析了档案数智化服务的现状;其次,从法律政策、标准指南、技术需求、风 险防控四个角度分析了生成式人工智能应用于档案数智化服务的可行性;最后,构建档案数据的 高效整理与检索、档案利用的流程优化与重塑、档案内容的深度挖掘与分析、档案服务的空间延伸 与开放四个服务应用场景。

  • 对课程教材教法的影响

    分类: 教育学 >> 课程与教学论 提交时间: 2024-05-08 合作期刊: 《课程·教材·教法》

    摘要:生成式人工智能融入课程教材教法出现了新变化,为此,提出生成式探究学习、生成式课程、教材的智能化助手开发和重构学习资源建设的新思维尤为重要。在教学中应用生成式人工智能,应在国家《生成式人工智能服务管理暂行办法》的指导下,从国家、学校到每一个班级,都要制定学校教育应用生成式人工智能的管理办法,确立在教学中学生使用生成式人工智能的班级教师责任制,开展全员培训,提升教师在教学中合理运用生成式人工智能辅助教学的技能,开展有关生成式人工智能环境下教学改革发展规律的教育科学研究,为人工智能在全社会的普及作好教育准备。

  • 大语言模型在学术研究中的价值、风险及其规避

    分类: 综合学科 >> 综合学科 提交时间: 2024-04-23 合作期刊: 《社会科学战线》

    摘要:人工智能时代下,以大语言模型为代表的生成式人工智能技术引发了多领域的范式革命,探索其在学术研究中的应用价值与风险规避具有必要性。大语言模型本质是字词从语言空间向语义空间的转换模型,具有同构性、 统一性与稳定性的特征。大语言模型在学术研究中的价值主要体现在原创性、 知识管理与应用认同三个维度,提供了跨学科学术创新、 学术体系发展与提升学术研究影响力的价值。大语言模型存在的结构性与能动性局限主要表现为方法模糊、 责任模糊、 评价模糊、 主体性模糊,易造成研究信效度难以认定、人机角色责任划分不清,产生学术伦理不端与研究者关键技能退化的风险。 规范和引导大语言模型在学术研究中的应用,应增强研究者的主体性、 重视研究的解释性与反思性、 探索梯级人机协同研究策略与加强学术伦理建设。