首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到18条相似文献,搜索用时 225 毫秒
1.
人工智能(AI)是第四次产业革命的核心,但也为伦理道德规范和社会治理带来了挑战。文章在阐释当前人工智能伦理风险的基础上,分析了当前对人工智能伦理准则、治理原则和治理进路的一些共识,提出了以“共建共治共享”为指导理论,逐渐建设形成包含教育改革、伦理规范、技术支撑、法律规制、国际合作在内的多维度伦理治理体系等对策建议。  相似文献   

2.
黎常  金杨华 《科研管理》2021,42(8):9-16
人工智能在深刻影响人类社会生产生活方式的同时,也引发诸多伦理困境与挑战,建立新的科技伦理规范以推动人工智能更好服务人类,成为全社会共同关注的主题。本文从科技伦理的视角,围绕机器人、算法、大数据、无人驾驶等人工智能领域所出现的伦理主体、责任分担、技术安全、歧视与公平性、隐私与数据保护等问题,以及人工智能技术的伦理治理,对国内外相关研究成果进行回顾分析,并提出未来需要在中国情境下伦理原则与治理体系的建立、人工智能伦理研究的跨学科合作、理论分析与实践案例的融合、多元主体伦理角色分工与协作等方面进行进一步研究。  相似文献   

3.
于雪  李伦 《科学学研究》2023,(4):577-585
人工智能技术的颠覆性特征将诱发一系列风险,但这些风险往往难以预知和研判,因而可以在社会场景中部分地引入某些人工智能技术,并通过密切监测其社会影响而试验其可行性。这种将人工智能引入社会的过程可以被视为人工智能社会实验。作为社会实验的人工智能在防控风险方面有一定的优势,但其实施过程也存在着不容忽视的伦理问题。这主要源于人工智能社会实验是以人为研究对象,考察“人—人工智能”的内在关系,因而对其伦理关切不仅重要而且必要。人工智能社会实验的目的之一就是通过社会实验解决人工智能的伦理问题。但同时,这种实验本身就存在着伦理争议,伦理的二阶性就导致了隐私、“脏手”、欺骗等现实伦理问题。基于此,应当建构面向人工智能社会实验的伦理框架,即人工智能社会实验伦理,以研判和防控人工智能社会实验的潜在伦理风险。通过提出人工智能社会实验伦理的治理策略,有助于探索科技伦理治理的中国道路。  相似文献   

4.
人工智能社会实验以社会实验的科学方式观测人工智能技术的综合社会影响,意在对其风险进行前瞻性评估,提前寻求应对策略,促进智能技术的良性发展。人工智能社会实验无疑会对实验场域中的参与人员和社会环境造成深刻的伦理影响,因而亟需建构一套切合实际、行之有效的伦理规范体系。当前研究虽有对于伦理风险和伦理原则的探讨,但仍缺乏有关如何在具体实践中定位伦理风险、落实伦理原则并确定伦理责任的精确阐释。人工智能社会实验的实验路径为其伦理规范体系的确立提供了基本框架。基于实验开展的7个阶段,结合人工智能伦理和社会实验伦理的研究成果:(1)分析整合实验各阶段面临的伦理风险,结合应用场景与技术特征进行深化;(2)梳理提炼普适的伦理原则,将其规范要求细化至实验各个阶段;(3)针对实验开展需要,确定不同参与主体在各阶段的职能作用,据此落实主体间的伦理责任。由此形成对人工智能社会实验伦理研究的基本认识,建构起既表达普遍价值共识,又具备实践可操作性的人工智能社会实验伦理规范体系。  相似文献   

5.
人工智能技术不仅能快速赋能经济社会发展,也可能引发诸多与人工智能技术本身特征和发展高度相关的伦理问题。国际软法因具有灵活高效、适用成本低,能填补硬法空白,以及方便区分治理、分层应对伦理问题的优势,其在人工智能伦理治理领域的勃兴几乎是必然的。在该领域国际软法发达、硬法落后的现状下,面对国际软法主体间合作不稳定、有时得不到有效实施的治理挑战,治理模式逐渐向软硬兼备、软法“硬化”转变,以提高软法约束力与执行可能性。建议构造国际软硬法混合治理的“中心—外围”模式、构建间接执行机制,以完善人工智能伦理的国际软法治理对策。  相似文献   

6.
李娜  陈君 《科技管理研究》2020,40(6):258-264
负责任创新(RRI)旨在科学和技术创新过程中社会行动者和创新者彼此负责,同时会考虑创新过程中的伦理问题及创新产品的可接受性、可持续性和社会需求。其内涵分为行政定义和学术定义。在预期、反思、协商、反应、可持续性、关怀这6种负责任创新框架的基础上引入无私利性,基于负责任创新这7种框架理念解析人工智能技术发展带来的安全、隐私、结果等三方面主要伦理问题,探讨嵌入RRI框架来解决人工智能(AI)在产生、应用和发展等过程中滋生的伦理问题的路径,使AI技术更好地造福人类社会。  相似文献   

7.
通用模型是近年来人工智能发展的重要方向之一。随着模型研发应用的增多,模型的社会和伦理影响受到广泛关注。文章从通用模型的特性出发、分析了模型在算法、数据和算力3个层面潜在的伦理挑战,包括不确定性、真实性、可靠性,偏见、毒性、公平、隐私及环境问题。进一步从技术哲学的视角分析了数据驱动的模型在人与世界关系中的中介性作用及所产生的“镜像”效应问题和透明性问题,提出了人与世界关系的新形态是以模型(数据)为中介的,即“人-模型(数据)-世界”关系。最后,从治理技术和治理机制两方面反思了当前的应对措施及局限性。建议建立开放式、全流程、价值嵌入的伦理规约机制,保障通用模型在合规、合伦理的框架下发展。  相似文献   

8.
[研究目的]人工智能在发展迅速的过程中,呈现出违背伦理与法治的趋势,美国政府及时采取措施对人工智能发展进行指引,其中的经验值得总结与借鉴。[研究方法]通过对美国政府指引人工智能的理念和实操进行分析,可以发现美国政府在理念层面要求人工智能的发展必须符合美国价值观和法治理念,在实操层面,则对工程实践、系统性能、人机交互、问责治理中的人工智能存在的问题进行解决。[研究结论]通过吸收美国已有的经验,并对其中的误区进行明辨,我国可以在理念层面明确人工智能的伦理与法律准则,在实操层面强化人工智能的可审计性、可追溯性、可解释性及可依赖性,确保人工智能适配伦理与法治。  相似文献   

9.
随着人工智能技术的快速研发和广泛应用,加强对人工智能技术的伦理风险预估和政策规避路径研究已然成为全球治理共识。为此,应当重新审视人工智能技术本质,正视人工智能技术应用带来的诸多技术风险、伦理风险、社会风险和法律风险挑战。实际上,人工智能技术嵌入社会实际应用风险的规避是一项复杂的系统工程,应该致力于构建一个综合性的治理框架。简而言之,应强化风险意识,制定技术伦理规范和培养科学家的人文精神,提高人工智能技术模型的可解释性和可追溯性;以社会合作共治为框架,推进人工智能技术风险的协同治理;推动人工智能技术运用的国际合作,以及人工智能技术伦理与法律标准化治理体系建设。  相似文献   

10.
贺芳 《科技创业月刊》2023,(12):104-108
ChatGPT以通用人工智能拉开了生成式AI发展的序幕,对人工智能生成内容产生深远影响,但其背后也潜藏着社会对生成式AI技术发展的担忧。通过阐述人工智能生成内容的技术演进过程及应用场景,分析人工智能生成内容带来的意识形态、法律、伦理、环境等风险,从政府层面、行业层面、用户层面3个方面对人工智能生成内容提出风险治理方案,以期为人工智能技术可持续发展提供参考。  相似文献   

11.
新兴科技的前沿创新性、动态变化性、多元互动性使其伦理治理存在难度,传统的治理方式难以快速应对。浙江省作为共同富裕示范区,重点发展“互联网+”、生命健康和新材料三大科创高地,亟需识别新兴科研领域的伦理风险并加强伦理建制。为此,基于我国重点科技创新领域伦理治理存在相关法律法规文本体量不足、专业审查机制及配套保障不完善、科技伦理教育薄弱、总体伦理素养有待提高、科研伦理创新治理路径有待拓展等现状,系统分析信息科学、生命健康和新材料三大科学领域代表技术的潜在伦理风险和伦理治理现状,提出浙江省反思性高阶伦理“元治理”路径,包括:促进多元主体协同参与伦理治理、完善特色科技伦理制度文本、加强伦理审查制度建设、健全伦理教育科普制度以及数字化赋能高效管理等,以期促进科技理性驱动共同富裕示范区经济社会发展。  相似文献   

12.
潘恩荣  阮凡  林佳佳 《科学学研究》2018,36(10):1744-1749
传统研究认为技术将带来伦理风险,但并未意识到技术集成还将带来更严重的社会风险,即伦理风险在现代市场经济条件下可能演化为伦理陷阱。这种社会风险与伦理风险有质的区别。在市场经济资本逻辑的驱使下,伦理陷阱通过“互联网+”技术无限扩散,使得公众难以识别和回避。应对技术集成的社会风险可以采用伦理、法律与植入道德代码等手段,但治本之道是发展能识别并治理该社会风险的理论和方法。与现有的技术哲学及伦理研究进路相比,技术哲学“价值论转向”纲领更适合研究当前“互联网+”与未来“人工智能+”技术集成引发的社会风险。  相似文献   

13.
首先,调查了撤稿观察数据库(RWD)中截至2022年5月21日因“缺伦理审批”或“无患者知情同意”科技伦理失范(EMSR)论文的发表及撤回(包括撤稿、关注、更正)时间、署名作者来源国家及机构、来源期刊及出版商、学科分布及相关撤回原因等状况;结果显示,近年来全球EMSR原因撤回论文呈上升趋势,且中国作者参与的数量增加明显,95.35%的EMSR撤回论文集中在健康科学和基础生命科学领域。其次,结合科技伦理问题呈现的多样性和复杂性,提出了强化科研活动全流程科技伦理监管策略;最后,作为期刊人,从压实主体责任的视角,提出了科技期刊参与科技伦理协同治理的思考和建议:科技期刊可通过对科研者的伦理宣传教育、投稿论文的协同伦理审查把关以及撤稿惩戒等手段发挥协同共治的作用。  相似文献   

14.
15.
范绕 《科教文汇》2012,(34):203-204
现代信息技术的发展给人类带来巨大利益的同时,也影响着传统社会伦理问题.信息伦理就是在这样的背景下产生的.本文主要分析当前网络环境下常见的信息伦理问题,提出解决这些问题相应的对策,并展望信息伦理发展的诱人前景.  相似文献   

16.
随着人工智能的井喷式发展,其涉及的伦理风险,也从科幻作品中走进现实,成为众多主体热议的话题。本文以技术接受模型及风险感知理论为基础,以信任为中介,构建了公众对于人工智能伦理风险的感知与其参与风险治理意愿的研究框架,并通过实证检验了相关假设。结果显示:人工智能伦理风险感知对公众参与意向具有显著的负向影响,其中公众对科研机构和政府的信任在人工智能伦理风险感知与公众参与之间起部分中介作用。该结论为构建“政府主导、专家引领、公众参与、社会监督”的治理新格局提供了科学依据,对于新兴技术实现科技向善具有重要的现实意义。  相似文献   

17.
彭耀进  周琪 《中国科学院院刊》2021,36(11):1288-1297
生物技术日新月异,给人类社会提供巨大效益,但同时其发展与变革所伴随的伦理、安全、负外部性等问题日益凸显。生物技术伦理挑战及其应对已成为当今中国国家治理体系和治理能力现代化研究的重要议题之一。当前,生物技术仍处于早期发展阶段且发展方向、路径及其应用等均具有高度不确定性,技术变革具有更强的颠覆性、复杂性和社会关联性等特征。世界正面临生物技术大发展、伦理新挑战爆发、伦理治理再变革的交织互动复杂局面。中国应借此机会一方面推动生物技术高质量发展,另一方面应从风险研判、制度构建、多元主体参与和全球治理等维度,多管齐下、交错互动,以期达到综合性、灵活性、可持续性的治理愿景。  相似文献   

18.
为应对来自技术的伦理问题,国内外学者提出了多种实践伦理方法。新兴技术作为尚未投产及仍处研发阶段的一系列尖端技术的总和,其自身具有不确定性和巨大影响力这两大特点。因此由新兴技术所带来的伦理问题相较一般技术而言也有其独特特征,并由此在实践伦理过程中产生了相应的困境,其特点主要为后果更难以预测、范围和程度更大、更为复杂多元,并且较难得到公众理解。为应对新兴技术实践伦理的困境应将研究对象从新兴技术转向新兴技术实践过程,把问题还原到实践本身,通过对实践场域及实践主体行动逻辑的认识弥补实证性经验材料的不足。新兴技术实践伦理从研发、投产、使用、治理四个实践场域分别入手,在每个实践场域中靶向性地匹配伦理原则、理论方法。对研发设计进行调解,优化投产及使用过程,并在技术治理中寻求解决路径。  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号