按提交时间
按主题分类
按作者
按机构
  • 中国精神、中国特性:大模型与中国自主设计治理理论体系——兼论中国当代设计学理论体系建构

    分类: 艺术学 >> 设计艺术学 提交时间: 2024-10-11 合作期刊: 《阅江学刊》

    摘要:在人工智能设计治理理论体系中凸显“中国自主”是中国当代设计学理论体系构建过程中的主要内容,其实质和关键在于深入挖掘大模型与中国自主人工智能设计治理理论体系之间的内在联系。本文探讨了大模型助推中国自主人工智能设计治理迭代升级的内涵和方式体系,并结合设计个案对大模 型与手艺人工智能设计治理的内在关系进行深入考察,并对大模型在乡村设计中的人工智能设计治理理论体系建构过程进行思考与探索。

  • 培养时代具备批判性思维和终身学习能力的教师

    分类: 教育学 >> 教育技术学 提交时间: 2024-10-22

    摘要:人工智能将教育领域传统的“师生二元关系”转变为“教师—人工智能—学生的三元动态关系”。这种转变要求重新审视教师角色及其在人工智能时代所需的能力。然而,目前极少数国家定义了这些能力或制定了培训教师人工智能能力的国家规划,导致许多教育者缺乏指导。在此背景下,联合国教科文组织发布了《教师人工智能能力框架》,定义了教师在人工智能时代必须掌握的知识、技能和价值观。该框架采用二维矩阵的方法,构建了涵盖5个能力层面,横跨获得、深化和创造3个能力等级的15种人工智能能力模块,并为教师提供了建立人工智能知识、应用伦理原则和支持其专业成长的框架应用策略。作为全球教师人工智能能力框架构建的参考工具,分析该框架有助于指导我国研制面向教育强国需求、契合教育家精神的本土化教师人工智能能力框架,为我国教师培训和评估项目提供参考。

  • 基础模型安全风险的平台治理

    分类: 法学 >> 经济法学 提交时间: 2024-09-09 合作期刊: 《财经法学》

    摘要:人工智能基础模型的安全治理是人工智能法治化发展面临的重要命题。人工智能基础模型平台作为安全治理的主体,其发现、评估和缓解人工智能系统潜在风险的能力至关重要,具有调整和优化自身模型的作用。国内外人工智能基础模型平台积极布局安全风险治理,但仍然面临治理架构缺乏权威性和代表性、伦理规范过于抽象、测试算力不足、风险评估困难、平台存在利己偏好等挑战。有必要立足于中国人工智能基础模型平台安全治理的实际,完善压力驱动、动力保障、能力强化等机制,更好发挥人工智能基础模型平台对安全治理的特有优势和能动作用,支撑人工智能技术及其应用健康有序发展。

  • 基于 LDA 模型的国际监管文本的主题热点及策略分析

    分类: 信息资源管理 >> 情报学 提交时间: 2024-09-18

    摘要:[目的/意义] 本研究应用LDA模型深入挖掘国际人工智能监管政策,旨在明确各国监管焦点与趋势,为全球AI治理策略提供参考。[方法/过程] 通过分析22份国际政策文件,本文采用LDA主题聚类分析法,识别并探讨关键主题词,揭示监管热点。[结果/结论] 研究揭示了六个核心监管主题:系统风险评估、伦理法律规范、社会影响治理、透明度与信任、创新与风险控制、全球监管策略,并据此提出四项政策建议。[创新/局限] 研究创新性地运用LDA模型为AI监管政策分析提供新视角,但主要限于文本分析。未来研究可通过实地调研和跨学科方法进一步拓展。

  • ChatGPT赋能智慧法院建设:机遇、挑战和规制

    分类: 法学 提交时间: 2024-07-02 合作期刊: 《重庆邮电大学学报(社会科学版)》

    摘要:ChatGPT类生成式人工智能在海量的数据、优质的算法与强大的算力支撑下能够实现多项技术赋能。但ChatGPT类生成式人工智能是否能够适用到智慧司法领域,以及在何种程度上将其嵌入,尤其是该项技术在赋能智慧法院建设过程中的边界如何,这对于深层次建设智慧法院具有重要的前提性意义。ChatGPT类生成式人工智能技术通过审判活动的智能化运用,可促进可视正义的实现;通过诉讼服务的可及性,可实现司法为民理念;通过公平与效率的动态平衡,可实现能动司法目标。然而,ChatGPT类生成式人工智能在带来上述诸多技术红利的同时,也引发了一系列新的风险,具体可以划分为由数据“幻觉性”引发的一般风险、由技术垄断性导致的重要风险以及由数据不可控产生的核心风险。对这些风险,应根据不同的风险特征采取相应的规制路径:可以通过对训练数据库的标准化构建以实现数据的“幻觉性” 规制,通过辅助性原则的引入而实现技术规制,通过对服务提供者科加义务以实现对数据不可控的数据规制。即运用数据“幻觉性”规制、技术规制与数据规制,实现对ChatGPT类生成式人工智能技术嵌入的一般风险、重要风险与核心风险的防范,以期完成ChatGPT类生成式人工智能技术嵌入智慧法庭建设的风险最小化与技术赋能最大化,最终实现该项技术高质量赋能智慧法院建设。

  • 从Midjourney到Sora:生成式AI与美学革命

    分类: 哲学 >> 美学 提交时间: 2024-06-06 合作期刊: 《阅江学刊》

    摘要:深刻影响时代的技术,已然关乎人类对世界与自我之认知的深化问题。从Midjourney、Sora到更近的Genie,人工智能技术向我们呈现出人类与世界进行深层次的,甚至在物理底层的重新展开沟通的可能性。在此意义上,AIGC就绝不局限于“AI generated content”这一定义,而是可以被重新定义为“animpossibly great civilization”。据此,我们可以对“人际互动”与“人机互动”做出对勘式反思:在日常生活中,对他人的反应往往是由一系列事件和话语累积所触发的;而在与AI交谈时,人们话语的选择同样决定了AI生成内容的质量和倾向。世界在物理/政治意义上的化成诚然在本体论意义上需要“互动”(interaction),尤其在经由生成式AI所掀起的美学革命中,要点并非定义“美”而是在互相触动中去创造“美”。在人与人、人与非人类的不预设界限的创造性合作中,这个世界才有真正的美的可能性。 

  • 大学生AIGC虚假信息甄别行为影响因素及提升策略

    分类: 信息资源管理 >> 图书馆学 提交时间: 2024-10-03

    摘要:摘要:[目的/意义]人工智能生成内容(Artificial Intelligence Generated Content,简称AIGC)正逐渐呈现出重塑内容创作生态的趋势,AIGC虚假信息的传播速度快、范围广、迷惑性强,大大增加了甄别难度,侵蚀公众信任。高校大学生作为AI技术的主要受众之一,对AIGC具有较高的接受度和熟悉度,因此对大学生群体甄别AIGC虚假信息的影响因素进行探究具有重要意义。研究结果对提升大学生AIGC虚假信息甄别能力,扩充和延伸高校现行信息素养教育内容,提高大学生人工智能素养具有参考和借鉴价值。[方法/过程]本研究采用半结构式访谈法获取研究语料,基于扎根理论的三级编码程序进行观点归纳。选取14名华中科技大学在校生进行深度访谈收集数据,自下而上归纳出影响大学生群体AIGC虚假信息甄别行为的16个子范畴,并聚焦为个人因素、信息因素、情境因素3个主范畴,构建大学生AIGC虚假信息甄别行为的影响因素模型。[结果/结论] AI素养不足导致大学生缺乏甄别AIGC虚假信息的意识;认知负荷过重导致大学生缺乏甄别AIGC虚假信息的意愿;甄别过程的复杂程度影响甄别成效。最后笔者针对普遍反映的AIGC虚假信息甄别难点,从观察信息的外部特征、核验内容逻辑、反溯信息来源、查询元数据信息、使用AI检测工具5个方面介绍了AIGC虚假信息的甄别方法与技巧。

  • 生成式教育应用悖论

    分类: 教育学 >> 教育技术学 提交时间: 2024-07-28 合作期刊: 《阅江学刊》

    摘要:以生成式人工智能为代表的新一代人工智能教育应用不断涌现,为教育数字化转型带来无限可能。借鉴风险社会理论思考生成式人工智能教育应用,生成式人工智能教育应用悖论将是教育领域长期存在的现象,诱发伦理风险、教育失范风险、“社会-物理-信息”空间交互异化风险、个体人格情感异化风险等。相关风险可划分为直接风险、早期风险、中期风险、长期风险四个阶段,反映创新与传统、效率与质量、技术与道德、公平与不平等、教师与人工智能等矛盾。生成式人工智能教育应用悖论的风险侧治理是一个复杂的系统性问题,应结合柔性治理理念构建风险治理综合防控体系,构建生成式人工智能教育应用风险预防体系标准,强化教育全场景数据监管体系建设与数据池监管,构建生成式人工智能教育应用悖论风险侧预警系统,形成多元主体参与治理的协同联动机制,引导利益主体正确看待教育公益与市场行为。 

  • 刑事审判“融智性”改革的现实困境及进路探析

    分类: 法学 >> 诉讼法学 提交时间: 2024-09-17 合作期刊: 《长白学刊》

    摘要:当前,刑事审判“融智性”改革正持续推进,人工智能技术在为传统刑事审判注入新鲜活力的同时,又不可避免地引发问题、陷入困境。一方面,当前人工智能辅助裁判系统并未起到实质性的增效、减负、辅助功效;另一方面,人工智能辅助裁判系统面临基础数据选取与算法设计的合理性保障不足的难题,存在加剧诉讼结构失衡局面的可能,并对现行审级制度、司法责任制改革、庭审实质化改革等造成冲击;算法黑箱与应用机械僵化、价值判断缺失等技术瓶颈的缺陷也逐渐暴露。有鉴于此,应丰富基础数据来源,健全筛选机制,保障基础数据的海量与优质。在明晰人工智能应用“辅助”地位的基础上,合理划定其适用的案件范围与审级,重新审视黑箱问题,并明确应由法官承担错案的司法责任。此外,还应建立决策追溯以及人才培养等协同机制,多管齐下,共同推进刑事审判“融智性”改革的稳步发展。

  • 地缘经济转向、数字主权与欧盟治理

    分类: 政治学 >> 国际政治 提交时间: 2024-09-14 合作期刊: 《国际安全研究》

    摘要:数字主权战略是欧盟“地缘经济转向”在数字空间的反映,包含监管与创新双重目标。在数字主权战略和人工智能兴起的背景下,欧盟推出了全球首部人工智能全面监管法律《人工智能法案》。在立法过程中,欧盟立法机构不断累积对人工智能风险的认识,并努力在促进人工智能创新和减轻人工智能风险间取得平衡。欧盟能否通过《人工智能法案》实现其领域的数字主权取决于欧盟能力、法案制度设计和人工智能技术特征等因素的共同作用。《人工智能法案》有利于欧盟协调内部行动和影响全球监管立法,但成员国在高风险人工智能监管执行权分配中的授权程度较低、法案制度设计未能弥合监管与创新的分歧、法案转化和修订与人工智能技术迭代的潜在不同步将对欧盟的人工智能主权产生不利影响。

  • +政府”场景下的数智治理:内涵、挑战与对策

    分类: 信息资源管理 >> 图书馆学 提交时间: 2024-10-10

    摘要:[目的/意义]随着“人工智能+”的推进,政府融合应用人工智能技术于治理和公共服务中,推进数智化转型,迈向数智治理。本文从人工智能在政府治理中的应用出发,探讨“人工智能+政府”场景下的数智治理内涵、挑战和对策。[方法/过程]“人工智能+政府”场景下的数智治理内涵包括数据收集与分析、政策制定与执行、公共服务与民生管理等方面,数智治理所面临的挑战,包括数据安全、技术伦理、公众信任、跨部门协作、法规滞后等。[结果/结论]为应对这些挑战,提出了包括建立健全数据保护机制、加强伦理教育和人才培养、深化公众参与和拓展信任路径、构建跨部门协作智能网络、完善法律法规和政策体系等应对策略,旨在为赋能政府治理体系和治理能力现代化提供理论贡献和实践参考。

  • 艺术家何以可能?

    分类: 艺术学 >> 艺术学理论 提交时间: 2024-07-02 合作期刊: 《重庆邮电大学学报(社会科学版)》

    摘要:不具备主体性的人工智能不可能成为真正意义上的艺术家。 人工智能艺术家何以可能的前提是人工智能能够拥有自我意识。 目前的人工智能艺术创作事实上还是一种人类主体性参与的创作方式以及“人在环内”的人机交互模式,其意向性依然是人类在把控,并没有离开人类主体性的参与,即自我意识的投射。 但科学发展的趋势似乎给我们展示了越来越大的可能性,让人们对那个“奇点”的到来充满着想象。 自我意识始于反思,“涌现”是复杂系统在一定的组织层次上出现的新特性。 有研究进展表明,自指结构的实现以及复杂系统的因果涌现很可能让人工智能产生自我意识,从而成为人工智能艺术家何以可能的关键技术路径。 从人工智能存在形态的分析出发,可以大致梳理出人工智能艺术家的三种可能的形态进路:拟人无具身形态、拟人+具身形态和蜂群AI( 集合AI) 形态。 而人工智能艺术家何以可能的系统构建可从动机———人工智能为何需要艺术,沿袭与变化———人工智能审美活动可能如何进行,创造性———人工智能艺术家的身份要件等三方面来进行辨析。

  • 生成式在图书馆信息素养教育中的机遇、挑战与发展方向

    分类: 信息资源管理 >> 图书馆学 提交时间: 2024-11-02

    摘要:研究阐释了生成式人工智能(GAI)技术在信息素养教育中的重要地位,运用范围综述方法,在SSCI、AHCI和CSSCI数据库筛选出51篇文献作为证据来源,根据范围综述报告规范(PRISMA-ScR)框架为证据分析出生成式人工智能在信息素养教育情境中的潜在应用场景,即提供个性化学习体验、提升数字化教学效果,并基于数据准确性、偏见问题、学术不端风险、虚假信息传播以及过度依赖生成式AI可能削弱独立和批判性思维能力挑战等关键挑战,提出生成式AI在信息素养教育情境中的应对策略,为图书馆信息素养教育的数字化转型与创新发展指明方向。

  • 从生成式到通用:赋能图书馆知识服务模式创新

    分类: 信息资源管理 >> 图书馆学 提交时间: 2024-10-22 合作期刊: 《农业图书情报学报》

    摘要:[目的/意义]AI技术的发展为图书馆知识服务带来巨大的变革和机遇。研究基于通用人工智能的知识服务理论基础、体系框架和应用前景,可以为知识服务领域提供新的研究思路和实践参考。[方法/过程]从生成式人工智能向通用人工智能演进的动态视角分析AI赋能图书馆知识服务的研究现状,构建以生成式人工智能和通用人工智能作为技术基座的图书馆知识服务体系框架,探讨基于通用人工智能的图书馆知识服务发展趋势。[结果/结论]随着人工智能技术的持续发展,未来通用人工智能必将在图书馆知识服务中取得广泛应用,有助于为用户提供更加便捷、准确和个性化的知识服务,深化图书馆知识服务价值和能力,推动知识服务理论研究和实践应用进入快速发展时代。

  • GPT赋能档案馆智慧服务:技术特征、应用场景与实现路径

    分类: 信息资源管理 >> 档案学 提交时间: 2024-07-22 合作期刊: 《档案与建设》

    摘要:GPT技术在推动档案馆智能化服务方面具有巨大的潜力和前景。它拥有多源数据融合、多轮对话处理、多 模态处理以及多语言支持等技术特征,为档案馆信息资源整合和用户交互提供了全新的支持。GPT可以被用于智能档 案咨询与问答、多媒体资源管理与展示、跨领域知识融合以及个性化服务等场景。档案馆可从技术、资源、人才、管理方 面加以改进,充分利用GPT技术去整合、搜集、加工和应用资源,提高档案馆智慧服务水平。

  • 面向治理的文件管理合规要求与标准化启示: 基于中美欧政策和国际标准的调查研究

    分类: 信息资源管理 >> 档案学 提交时间: 2024-10-12

    摘要:[目的/意义]人工智能治理亟需有据可查,以政策为对象分析面向人工智能治理的文件管理合规要求,有助于推动人工智能的健康可持续发展。[方法/过程] 基于国际标准化组织文件管理体系国际标准的关切内容及其要求,对中、美、欧人工智能治理相关法规政策进行调查研究,从过程、控制和系统三个维度分析面向人工智能治理的文件管理合规要求。[结果/结论]在过程维强调创建和存储文件的规范性要求,在控制维强调访问许可和处置授权的规则性要求,在系统维强调文件管理自动化与嵌入AI系统设计的规划性要求。

  • 基于比例原则的数据安全预防型治理:以高风险为展开

    分类: 法学 >> 法学理论 分类: 综合学科 >> 综合学科 分类: 管理科学与工程 >> 管理科学与工程 提交时间: 2024-07-25

    摘要:高风险人工智能是指应用于特殊重要领域的人工智能系统,如自然人生物识别和分类、关键基础设施的管理和运营、教育和职业培训、司法程序等领域,因其所涉数据的特殊性、安全性和敏感性而被受关注。针对高风险人工智能数据安全治理,传统的回应型治理模式无法有效应对数据安全风险的不稳定性和不可预测性,预防型治理虽能在一定程度上规避回应型治理模式的弊端,但预防性措施存在超限可能,有阻碍人工智能技术发展之嫌。基于此,高风险人工智能数据安全治理急需摆脱“后果控制”的回应型治理模式的依赖,革新预防型治理措施的限度,以基于比例原则的“预防型治理”作为数据安全风险的应对新路。具言之,应当确立“存疑从有”的治理原则,构建“数据收集利用最小化”的治理机制,运用“契合伦理”的动态治理工具,以实现高风险人工智能数据安全的预防型治理,为人工智能的稳步发展提供有力保障。

  • 基于“智能 +”的作文评改模式探索

    分类: 教育学 >> 基础教育 提交时间: 2024-07-02

    摘要:随着人工智能技术的发展,作文智能评改已逐步成为语文老师的帮手,也影响着作文评改的模式。本文结合具体的作文评改实践,梳理出“智能+”的八种作文评改新范式,分别是以老师为主、以合作为主、以探究为主、以学生为主、以修改为主、以发表为主、以交流为主、以优化为主的作文评改模式。

  • 智能时代的美学潜能

    分类: 哲学 >> 美学 提交时间: 2024-05-28 合作期刊: 《社会科学战线》

    摘要:人工智能时代来临,人工智能可以思考,但并无意识。人与人工智能的区分是思考人工智能美学潜能的基础。塞尔设计的“中文屋”思想实验并不等同于图灵测试,他所主张的语言包含意识的理论并不适用于人工智能,作为目前人工智能代表的大语言模型具有语言生成能力,并执行思考功能,但无意识涌现。悬搁意识,只着眼语言生成,我们就能理解人工智能时代美学的发展方向。语言哲学所批判的各种内在论美学在人工智能这里获得实质上的证据,内在意识对于美学创造而言是不必要的冗余物,人工智能美学当放弃意识的追寻。人工智能文学和人工智能艺术作品的大量涌现表征了后人类时代的来临,丰富的乌托邦质素催生了新的技术文化,也不断推动人工智能美学系统的发展和完善。

  • 时代教育的挑战与应对

    分类: 教育学 >> 比较教育学 提交时间: 2024-11-01

    摘要:[摘要]联合国教科文组织历来关注教育的发展,在人工智能迅猛发展的十年时间里,先后提出系列政策指导文件,指出人工智能时代我们应坚持尊重、保护和促进人权和基本自由以及人的尊严,环境和生态系统蓬勃发展,确保多样性和包容性,生活在和平、公正与互联的社会中的价值观,人工智能应用于教育应坚持人文主义,包容、公平,性别平等,教育数据和算法合乎道德、透明和可审计。人工智能应用与教育领域涉及三个关键议题:利用人工智能促进教育,教育领域合乎道德、包容且公平的使用人工智能,教育帮助人类做好与人工智能一起生活和工作的准备。最新发布的框架特别强调了教师的人工智能素养,重新定义教师的角色和能力;学生的人工智能素养,成为有责任感和创造力的公民。启发我国在制定人工智能政策时,关注人工智能时代共同价值观的塑造,坚守教育领域人工智能原则的基本立场,拓展人工智能与教育应用场景建设,培养面像数字化的未来的教师和学生,更好的应对人工智能时代的挑战。