首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到20条相似文献,搜索用时 359 毫秒
1.
人工智能(AI)是第四次产业革命的核心,但也为伦理道德规范和社会治理带来了挑战。文章在阐释当前人工智能伦理风险的基础上,分析了当前对人工智能伦理准则、治理原则和治理进路的一些共识,提出了以“共建共治共享”为指导理论,逐渐建设形成包含教育改革、伦理规范、技术支撑、法律规制、国际合作在内的多维度伦理治理体系等对策建议。  相似文献   

2.
人工智能伦理准则与治理体系:发展现状和战略建议   总被引:1,自引:0,他引:1  
首先,界定人工智能伦理准则的基本概念,分析人工智能发展现状。然后,探讨导致人工智能伦理问题的主要原因,总结人工智能典型应用场景下的伦理问题,包括自动驾驶、智能媒体、智慧医疗、服务机器人等;此外,围绕应对人工智能伦理问题的基本原则探索治理框架体系,包括技术应对、道德规范、政策引导、法律规则等方面。最后,结合我国人工智能发展规划战略部署,指出在社会治理的落地过程中宜采取分层次、多维度的治理体系,并提出在人工智能伦理准则和治理方面的具体措施建议(2020-2035年),包括社会宣传、标准体系、法律法规等方面。  相似文献   

3.
于雪  李伦 《科学学研究》2023,(4):577-585
人工智能技术的颠覆性特征将诱发一系列风险,但这些风险往往难以预知和研判,因而可以在社会场景中部分地引入某些人工智能技术,并通过密切监测其社会影响而试验其可行性。这种将人工智能引入社会的过程可以被视为人工智能社会实验。作为社会实验的人工智能在防控风险方面有一定的优势,但其实施过程也存在着不容忽视的伦理问题。这主要源于人工智能社会实验是以人为研究对象,考察“人—人工智能”的内在关系,因而对其伦理关切不仅重要而且必要。人工智能社会实验的目的之一就是通过社会实验解决人工智能的伦理问题。但同时,这种实验本身就存在着伦理争议,伦理的二阶性就导致了隐私、“脏手”、欺骗等现实伦理问题。基于此,应当建构面向人工智能社会实验的伦理框架,即人工智能社会实验伦理,以研判和防控人工智能社会实验的潜在伦理风险。通过提出人工智能社会实验伦理的治理策略,有助于探索科技伦理治理的中国道路。  相似文献   

4.
贺芳 《科技创业月刊》2023,(12):104-108
ChatGPT以通用人工智能拉开了生成式AI发展的序幕,对人工智能生成内容产生深远影响,但其背后也潜藏着社会对生成式AI技术发展的担忧。通过阐述人工智能生成内容的技术演进过程及应用场景,分析人工智能生成内容带来的意识形态、法律、伦理、环境等风险,从政府层面、行业层面、用户层面3个方面对人工智能生成内容提出风险治理方案,以期为人工智能技术可持续发展提供参考。  相似文献   

5.
潘恩荣  阮凡  林佳佳 《科学学研究》2018,36(10):1744-1749
传统研究认为技术将带来伦理风险,但并未意识到技术集成还将带来更严重的社会风险,即伦理风险在现代市场经济条件下可能演化为伦理陷阱。这种社会风险与伦理风险有质的区别。在市场经济资本逻辑的驱使下,伦理陷阱通过“互联网+”技术无限扩散,使得公众难以识别和回避。应对技术集成的社会风险可以采用伦理、法律与植入道德代码等手段,但治本之道是发展能识别并治理该社会风险的理论和方法。与现有的技术哲学及伦理研究进路相比,技术哲学“价值论转向”纲领更适合研究当前“互联网+”与未来“人工智能+”技术集成引发的社会风险。  相似文献   

6.
随着人工智能的井喷式发展,其涉及的伦理风险,也从科幻作品中走进现实,成为众多主体热议的话题。本文以技术接受模型及风险感知理论为基础,以信任为中介,构建了公众对于人工智能伦理风险的感知与其参与风险治理意愿的研究框架,并通过实证检验了相关假设。结果显示:人工智能伦理风险感知对公众参与意向具有显著的负向影响,其中公众对科研机构和政府的信任在人工智能伦理风险感知与公众参与之间起部分中介作用。该结论为构建“政府主导、专家引领、公众参与、社会监督”的治理新格局提供了科学依据,对于新兴技术实现科技向善具有重要的现实意义。  相似文献   

7.
李森林  张乐  李瑾 《科学学研究》2023,(10):1737-1746
测量和解析个体对人工智能的风险感知是研究其社会影响的基础性工作。本文通过构建多指标多因素结构方程模型(MIMIC),从4方面测度了青年群体对人工智能的风险感知水平,并考察了8类风险因素对其产生的影响。数据分析显示,青年对社会、伦理、法律、国家安全、政治等具有长远性和集体性特征的社会风险因素的评价正向强化了其对人工智能整体属性的风险感知,而对经济、技术、人身安全与财产损失等具有近期性和现实性的个人风险因素的评价并未产生显著影响。上述结果表明,当代青年对人工智能风险感知的特征主要表现为“远虑”而非“近忧”,体现出该群体对待新兴技术的全局性、长远性和法理性的深度忧患意识。在全面开展人工智能风险治理的进程中,应从国家战略高度和法律伦理的角度强化对人工智能隐性风险的治理,最大限度地消除公众的远虑近忧,夯实新兴技术落地的社会基础。  相似文献   

8.
人工智能社会实验以社会实验的科学方式观测人工智能技术的综合社会影响,意在对其风险进行前瞻性评估,提前寻求应对策略,促进智能技术的良性发展。人工智能社会实验无疑会对实验场域中的参与人员和社会环境造成深刻的伦理影响,因而亟需建构一套切合实际、行之有效的伦理规范体系。当前研究虽有对于伦理风险和伦理原则的探讨,但仍缺乏有关如何在具体实践中定位伦理风险、落实伦理原则并确定伦理责任的精确阐释。人工智能社会实验的实验路径为其伦理规范体系的确立提供了基本框架。基于实验开展的7个阶段,结合人工智能伦理和社会实验伦理的研究成果:(1)分析整合实验各阶段面临的伦理风险,结合应用场景与技术特征进行深化;(2)梳理提炼普适的伦理原则,将其规范要求细化至实验各个阶段;(3)针对实验开展需要,确定不同参与主体在各阶段的职能作用,据此落实主体间的伦理责任。由此形成对人工智能社会实验伦理研究的基本认识,建构起既表达普遍价值共识,又具备实践可操作性的人工智能社会实验伦理规范体系。  相似文献   

9.
正1人工智能:社会治理的新议题及新挑战人工智能技术的发展正在重塑社会现实,带来社会治理领域的新变革。人工智能既是社会治理的工具,又是社会治理的对象。新技术的发展必然带来新的社会议题,人工智能技术及其广泛应用将带来新的社会治理、法律规范及伦理规约问题。就业对国民经济的发展至关重要,然而随着人工智能对人类就  相似文献   

10.
智能医疗机器人的广泛应用有效提升了医疗服务效率和改善了患者医疗体验。然而,伴随着医疗机器人颠覆性技术发展,其应用引起了诸多伦理方面的隐忧,相关风险类型可归纳为安全风险、隐私风险、道德风险、责任风险以及公正风险。医疗机器人伦理风险治理的利益相关者可以界定为管理方、设计方、供给方以及需求方,因此,厘清各主体的角色和责任是实现其伦理治理目标的关键。提出应当通过将负责任创新融入设计环节、建立严格的伦理审查制度、保护使用者的主体权利、构建医疗机器人的道德能力以及完善伦理风险的法律规制加以规避风险。  相似文献   

11.
黎常  金杨华 《科研管理》2021,42(8):9-16
人工智能在深刻影响人类社会生产生活方式的同时,也引发诸多伦理困境与挑战,建立新的科技伦理规范以推动人工智能更好服务人类,成为全社会共同关注的主题。本文从科技伦理的视角,围绕机器人、算法、大数据、无人驾驶等人工智能领域所出现的伦理主体、责任分担、技术安全、歧视与公平性、隐私与数据保护等问题,以及人工智能技术的伦理治理,对国内外相关研究成果进行回顾分析,并提出未来需要在中国情境下伦理原则与治理体系的建立、人工智能伦理研究的跨学科合作、理论分析与实践案例的融合、多元主体伦理角色分工与协作等方面进行进一步研究。  相似文献   

12.
人工智能通过生产高端科技的智能产品逐渐受到社会关注,但由此衍生的伦理与法律问题也接踵而至。目前人工智能技术发展带来的伦理问题有威胁人类安全、算法歧视、过度依赖等,引起的法律问题有伦理问题与责任划分、隐私泄露、著作权保护和失业率上升等。本文对此类问题进行剖析和总结,希望对建立良好的人工智能发展环境,健全人工智能安全应用的伦理规范和法律体系,具有一定的启示作用。  相似文献   

13.
人工智能的迭代发展对国际合作构建相应的监管理念与机制提出了前所未有的挑战。目前,可解释性框架下的人工智能国际合作监管存在着理念层面的创新与规制权衡、社会层面的伴生风险以及监管层面的重叠、浪费等问题,蔓延全球各国,致使单一国家难以独善其身。质言之,以可解释性为中心的人工智能国际合作监管的理念与机制应运而生,包括探索性地提出“协调性”、“包容性”以及“开放性”等以问题为导向的监管理念,并且通过完善相关法律规范以及构建法律与技术相互为用的体制机制,希冀拓展更为广泛的人工智能国际合作,引导人工智能健康、有序发展。  相似文献   

14.
李娜  陈君 《科技管理研究》2020,40(6):258-264
负责任创新(RRI)旨在科学和技术创新过程中社会行动者和创新者彼此负责,同时会考虑创新过程中的伦理问题及创新产品的可接受性、可持续性和社会需求。其内涵分为行政定义和学术定义。在预期、反思、协商、反应、可持续性、关怀这6种负责任创新框架的基础上引入无私利性,基于负责任创新这7种框架理念解析人工智能技术发展带来的安全、隐私、结果等三方面主要伦理问题,探讨嵌入RRI框架来解决人工智能(AI)在产生、应用和发展等过程中滋生的伦理问题的路径,使AI技术更好地造福人类社会。  相似文献   

15.
《科学学研究》2021,39(8):1364-1372
人工智能技术的发展与应用是一把双刃剑,其在解决诸多经济社会问题的同时也蕴含着巨大风险,因此对人工智能风险及其治理的探讨迫在眉睫。依据现有研究,论文首先分析认为人工智能技术发展和应用中可能涌现出三类主要风险:技术风险、社会风险和管理风险。其次,依据契约理论,类比分析契约的特性所引致的交易问题和人工智能的上述三类风险,提出人工智能风险的契约观,认为:人工智能的风险源自于契约的不完备性、隐性性和不透明性。再次,依据契约治理理论,以契约的设计、实施和监督为重要环节,提出人工智能风险的契约化治理机制。最后,从制度设计的视角出发,提出人工智能风险契约化治理的保障制度。论文在深入分析人工智能风险的基础上,比较全面地构建了人工智能风险的契约观,提出了人工智能风险的契约化治理机制和保障制度,为更深入地理解人工智能风险提供了一个新的理论视角,并将契约理论从探讨经济主体之间的交易关系拓展至"人-机"之间以及机器之间的交易关系,增强了该理论的张力。  相似文献   

16.
人工智能技术不仅能快速赋能经济社会发展,也可能引发诸多与人工智能技术本身特征和发展高度相关的伦理问题。国际软法因具有灵活高效、适用成本低,能填补硬法空白,以及方便区分治理、分层应对伦理问题的优势,其在人工智能伦理治理领域的勃兴几乎是必然的。在该领域国际软法发达、硬法落后的现状下,面对国际软法主体间合作不稳定、有时得不到有效实施的治理挑战,治理模式逐渐向软硬兼备、软法“硬化”转变,以提高软法约束力与执行可能性。建议构造国际软硬法混合治理的“中心—外围”模式、构建间接执行机制,以完善人工智能伦理的国际软法治理对策。  相似文献   

17.
高德胜  季岩 《情报科学》2021,39(8):53-59
【目的/意义】人工智能时代下,个人信息安全面临着越来越多的风险和挑战,研究个人信息的保护问题具 有重要的理论意义和实践价值。【方法/过程】在分析人工智能时代个人信息安全问题的现实发展与理论内涵的基 础上,对个人信息保护法律规制的缺陷、个人信息知情同意原则的困境、个人信息安全面临的技术性风险、人工智 能企业的内部安全威胁与人工智能技术衍生的伦理风险进行检视,结合国际国内个人信息安全治理的理论与经 验,提出人工智能时代个人信息保护问题的安全治理策略。【结果/结论】通过分析研究,提出完善人工智能时代个 人信息安全的法律规制,推动政府、企业与社会公众的协同治理机制,构筑人工智能系统个人信息安全技术壁垒, 健全人工智能企业的安全管理规范,强化个人信息自我保护能力等策略,从而全面提升人工智能时代个人信息安 全治理能力。【创新/局限】以信息安全为研究视角,提出多维度、系统性、立体化的个人信息安全治理策略。但由于 缺少具体的数据分析,本文亦存在进一步细化的空间。  相似文献   

18.
阐述脑机接口技术自身和技术应用可能带来的隐私风险,以及这种风险所带有的新特征,并试图从技术本身、法律与伦理这3个角度给出解决上述问题的框架.  相似文献   

19.
本文探讨了大数据技术创新、研发和应用中的伦理问题。指出大数据技术是把双刃剑,这种技术的创新使社会、商业、以及亿万人受益,但同时也带来风险。我们必须鉴定风险,平衡创新带来的利益与风险。文章还探讨了与信息技术及大数据技术有关的数字身份、隐私、可及、安全和安保、数字鸿沟等伦理问题,并讨论了解决这些伦理问题的进路。最后,建议引入伦理治理的概念,指出大数据的顺利推广应用要求我们制订评价在大数据方面所采取行动的伦理框架,即伦理原则,为制订行为准则、管理和立法建立一个伦理学基础。  相似文献   

20.
在自回归生成模型、预训练以及人类反馈强化学习等技术的基础上,ChatGPT获得了强大的自然语言处理能力,颠覆了过往人们关于人工智能的认知。但与此同时,ChatGPT在模型训练、生成内容以及应用等维度也带来了诸多类型的风险。在治理展开之前,应当明确人本主义是治理的价值基础,包容审慎的敏捷治理是治理的理念,“点面结合”的多方参与是治理的主体要求,多措并举的体系化方案是治理的模式。由此,治理的具体路径将从以下五个方面展开:建设标准训练数据集、健全人工智能训练师职业资格准入制度、强化算法监管技术、落实全过程的伦理治理方案以及优化法律体系与法律责任配置。  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号