首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到20条相似文献,搜索用时 15 毫秒
1.
科学技术发展过程中不确定性因素的显现、科技风险责任主体的缺失、科技风险与效益中的公平性等问题在科学技术发展和人类现实生活中引发了各种伦理问题,导致了一定程度的伦理困境,对于这些困境的解决,既有赖于建立起新的应对科技风险的伦理观,同时也需要构建科技风险治理的伦理调节机制,并通过具体措施使其得以实现。  相似文献   

2.
黎常  金杨华 《科研管理》2021,42(8):9-16
人工智能在深刻影响人类社会生产生活方式的同时,也引发诸多伦理困境与挑战,建立新的科技伦理规范以推动人工智能更好服务人类,成为全社会共同关注的主题。本文从科技伦理的视角,围绕机器人、算法、大数据、无人驾驶等人工智能领域所出现的伦理主体、责任分担、技术安全、歧视与公平性、隐私与数据保护等问题,以及人工智能技术的伦理治理,对国内外相关研究成果进行回顾分析,并提出未来需要在中国情境下伦理原则与治理体系的建立、人工智能伦理研究的跨学科合作、理论分析与实践案例的融合、多元主体伦理角色分工与协作等方面进行进一步研究。  相似文献   

3.
数字技术的快速发展为我国实现医疗治理现代化提供了可行的操作路径。文章在分析数字技术赋能医疗机构和医生、政府、社会群体等多元主体、提升医疗服务供给能力、普惠性和公平性、友好性和便利性等方面作用基础上,探讨了数字技术赋能医疗治理现代化建设的4个重点问题,即数字医疗基础设施建设、数字技术采纳的影响因素、数据资产属性确权、数据安全与科技伦理。基于国际数字医疗应用场景,提出推动数字技术赋能我国医疗治理现代化建设的对策建议:以道路自信为核心、以医疗情景驱动为引擎、以技术融合应用为抓手,聚焦数字技术价值创造引导多元主体协同治理,融入全球创新、承担大国责任、倡导科技向善。  相似文献   

4.
科学技术的发展使技术人工物不断趋于智能化。智能可穿戴装置作为技术人工物的一种,以解决人类生产和生活问题的功能性装置为主。现代科学不仅要关心如何为智能可穿戴装置提供技术应用,还要思考如何将道德价值和伦理责任设计到智能可穿戴装置中,这是智能人工物技术治理中不容忽视的问题。本文通过技术现象学还原法,追溯了智能可穿戴装置的价值和责任问题,分析了其起源和范围以及责任划分,以期为智能可穿戴设计中的技术伦理问题提供一些参考。最后得出智能可穿戴装置的价值分为其技术设计价值、道德伦理主体价值,责任则是四个主要责任主体由设计师和工程师、智能可穿戴装置、用户和政府监管单位形成了一个责任闭环。  相似文献   

5.
探讨影响浙江省共同富裕示范区建设的相关主要科技活动的潜在伦理风险。以“互联网+”、生命健康和新材料科学领域代表技术为研究对象,基于Web of Science、PubMed、Scopus、中国知网、万方、维普等数据库筛选出143篇相关中英文文献,梳理、分析和预判有关信息资源公平、生物资源公平、公共安全等问题,揭示其中所隐含的人体安全、隐私保护、受试者尊重等伦理风险;基于此,以浙江省数字一体化建设为例,阐析浙江省政府作为元治理者行使三阶治理职能,为多元主体共治提供基础治理平台、促进多元主体参与一二阶治理的实践措施,如建立自纠自查伦理生态、伦理治理信息化平台等,为研判新兴科技共性伦理风险、探索科技伦理治理新模式提供参考。  相似文献   

6.
机器人伦理的进路及其内涵   总被引:1,自引:0,他引:1  
根据机器人是否可以发展出人工的道德能动性,其伦理建构可分为机器人伦理和机器伦理两种平行的进路:机器人伦理学和机器伦理。机器人伦理关注的是,在机器人没有自主性时,与之相关的人的责任和他们应遵守的伦理准则。机器伦理则试图在技术上构建一个新的伦理愿景,让机器人有可能发展为自主的道德能动者,从而使我们可以教会他们分辨善恶并以符合伦理的行为与人相处。  相似文献   

7.
随着人工智能的井喷式发展,其涉及的伦理风险,也从科幻作品中走进现实,成为众多主体热议的话题。本文以技术接受模型及风险感知理论为基础,以信任为中介,构建了公众对于人工智能伦理风险的感知与其参与风险治理意愿的研究框架,并通过实证检验了相关假设。结果显示:人工智能伦理风险感知对公众参与意向具有显著的负向影响,其中公众对科研机构和政府的信任在人工智能伦理风险感知与公众参与之间起部分中介作用。该结论为构建“政府主导、专家引领、公众参与、社会监督”的治理新格局提供了科学依据,对于新兴技术实现科技向善具有重要的现实意义。  相似文献   

8.
新兴科技的前沿创新性、动态变化性、多元互动性使其伦理治理存在难度,传统的治理方式难以快速应对。浙江省作为共同富裕示范区,重点发展“互联网+”、生命健康和新材料三大科创高地,亟需识别新兴科研领域的伦理风险并加强伦理建制。为此,基于我国重点科技创新领域伦理治理存在相关法律法规文本体量不足、专业审查机制及配套保障不完善、科技伦理教育薄弱、总体伦理素养有待提高、科研伦理创新治理路径有待拓展等现状,系统分析信息科学、生命健康和新材料三大科学领域代表技术的潜在伦理风险和伦理治理现状,提出浙江省反思性高阶伦理“元治理”路径,包括:促进多元主体协同参与伦理治理、完善特色科技伦理制度文本、加强伦理审查制度建设、健全伦理教育科普制度以及数字化赋能高效管理等,以期促进科技理性驱动共同富裕示范区经济社会发展。  相似文献   

9.
当前加速迭代的新兴技术对人类道德秩序的挑战,在诸多技术应用中都引发了大量伦理难题,科技创新与科技伦理之间的张力被凸显出来。今天的科技伦理成为一个多学科多主体参与的、对科技实践进行系统研究和综合治理的领域,科技伦理治理是未来社会生活实践和国家治理中的重要议题。从责任伦理的角度出发,面向未来的科技伦理治理应充分考虑以下要点:发挥伦理原则在新兴技术的敏捷治理中的作用;拓宽科技伦理教育,推动科技伦理由专业话语向公众话语的转变;强化科技伦理协同治理,构造多主体合作的“科技伦理治理共同体”;面向新兴技术实践的“物”转向,以人与技术物的协同演化为治理原则。  相似文献   

10.
科学传播是现阶段科普的一个新的形态,其传播实践具有一定的伦理属性。科学传播的责任伦理主体包括科研工作者、大众媒体、科技管理决策者以及社会公众,分别就各个主体在科学传播实践中的责任伦理的缺失与控制路径进行了分析讨论。对责任伦理的追问是达到良好的科学传播效果的保证。  相似文献   

11.
杜严勇 《科学学研究》2017,35(11):1608-1613
关于道德责任的承担主体及其责任分配是机器人伦理研究中一个重要问题。即使机器人拥有日益提高的自主程度和越来越强的学习能力,也并不意味着机器人可以独立承担道德责任,相反,应该由与机器人技术相关的人员与组织机构来承担道德责任。应该明确机器人的设计者、生产商、使用者、政府机构及各类组织的道德责任,建立承担责任的具体机制,才能有效避免"有组织的不负责任"现象。另外,从目前法学界关于无人驾驶技术的法律责任研究情况来看,大多数学者倾向于认为应该由生产商、销售商和使用者来承担责任,而无人驾驶汽车根本不构成责任主体。  相似文献   

12.
科学共同体作为科学活动的主体,其科技行为会对社会产生深远的影响,因而,科学共同体在科技伦理治理中承担着不可替代的责任。本文在梳理国内外相关研究的基础上,从科技发展的内生需求和科学共同体发挥治理功能的价值表现两个层面对科学共同体推动科技伦理治理的必然性进行了分析,同时对科学共同体推进科技伦理治理的实现机制,如协同治理机制、监督评价机制和宣传教育机制等进行了探索。最后从注重科学共同体推动科技伦理治理的规范化建设、强化科学共同体科技伦理治理能力、提升科学共同体推动科技伦理治理的社会影响力三个层面提出科学共同体推进科技伦理治理的实现路径。  相似文献   

13.
人工智能社会实验以社会实验的科学方式观测人工智能技术的综合社会影响,意在对其风险进行前瞻性评估,提前寻求应对策略,促进智能技术的良性发展。人工智能社会实验无疑会对实验场域中的参与人员和社会环境造成深刻的伦理影响,因而亟需建构一套切合实际、行之有效的伦理规范体系。当前研究虽有对于伦理风险和伦理原则的探讨,但仍缺乏有关如何在具体实践中定位伦理风险、落实伦理原则并确定伦理责任的精确阐释。人工智能社会实验的实验路径为其伦理规范体系的确立提供了基本框架。基于实验开展的7个阶段,结合人工智能伦理和社会实验伦理的研究成果:(1)分析整合实验各阶段面临的伦理风险,结合应用场景与技术特征进行深化;(2)梳理提炼普适的伦理原则,将其规范要求细化至实验各个阶段;(3)针对实验开展需要,确定不同参与主体在各阶段的职能作用,据此落实主体间的伦理责任。由此形成对人工智能社会实验伦理研究的基本认识,建构起既表达普遍价值共识,又具备实践可操作性的人工智能社会实验伦理规范体系。  相似文献   

14.
科技伦理治理整体性视角的形成得益于两个方面:一是科技伦理转向科技治理的现实驱动;二是科技治理转向伦理治理的理论使然。在二者的耦合作用下,科技伦理治理从治理对象、治理主体和治理环节3个维度实现了科技伦理和治理的有机结合,并在此基础上建构了自身的行动框架。就该行动框架的构成而言,其内涵包括:针对伦理难题的敏捷治理,多元主体展开的协同治理,深入“事前-事中-事后”的全过程治理。在整体性视角下阐释科技伦理治理内涵的意义在于,其可以在理论构建、治理效能和实践有效性上为推进科技伦理治理提供重要启示。  相似文献   

15.
合成生物学是生物学与工程学、化学、计算机科学等学科交叉融合的一门新兴学科,在能源、生物医药、农业和化学等领域有着巨大的发展潜力和良好的应用前景。然而,与此同时,其研究与创新也面临着一定的风险与伦理挑战。文章追溯了"负责任(研究与)创新"的理论渊源,指出了"负责任创新"对责任伦理的积极拓展和对技术评估与技术伦理、法律与社会影响研究的升华。在分析了合成生物学"负责任创新"的必要性和紧迫性的基础上,建议从加快生物安全立法、风险与伦理评估、责任教育与监管、公众对话与参与、跨学科协同和全球治理6个方面,建立健全我国合成生物学"负责任创新"的体制机制,推进国家科技创新治理体系和治理能力的现代化。  相似文献   

16.
科技伦理责任的主体系统包括科技工作者、政府及其它决策者、社会公众等。科技工作者的伦理责任包括职业伦理责任和社会伦理责任两个层面,其社会伦理责任在于预见、通告、建议,政府及其它决策者的伦理责任是预防、保障、决策,社会公众应承担关注、了解、参与的伦理责任。  相似文献   

17.
近年来,风险社会始终站在时代和理论的风口浪尖,对人类社会面临的未来风险困境进行着前沿性地研究和解读.风险的内涵、性质、分配机制与治理构成了风险社会的理论逻辑.风险社会的理论逻辑启示在社会治理中应当增强风险的预见性,最大限度的降低人造风险,落实风险的责任主体以及减少因风险规避逻辑而来的不作为.  相似文献   

18.
人工智能伦理准则与治理体系:发展现状和战略建议   总被引:1,自引:0,他引:1  
首先,界定人工智能伦理准则的基本概念,分析人工智能发展现状。然后,探讨导致人工智能伦理问题的主要原因,总结人工智能典型应用场景下的伦理问题,包括自动驾驶、智能媒体、智慧医疗、服务机器人等;此外,围绕应对人工智能伦理问题的基本原则探索治理框架体系,包括技术应对、道德规范、政策引导、法律规则等方面。最后,结合我国人工智能发展规划战略部署,指出在社会治理的落地过程中宜采取分层次、多维度的治理体系,并提出在人工智能伦理准则和治理方面的具体措施建议(2020-2035年),包括社会宣传、标准体系、法律法规等方面。  相似文献   

19.
王少 《科学学研究》2023,(4):596-602
科研院所、高等院校等责任主体履行科学数据安全责任的前提是厘清科学数据安全责任的目标和类型,掌握责任主体数据权利的内涵及其被科学数据安全责任所重构的行使机制。责任主体履行数据安全责任一要在社会责任导向下,识别数据社会风险、遵循信息伦理、充分使用责任去中心化的手段保障科学数据安全;二要在权利保护导向下,通过保护对象数据权利、公共利益和自我数据权利分别承担对象数据、公共数据和自我数据安全责任。  相似文献   

20.
随着人工智能技术的快速研发和广泛应用,加强对人工智能技术的伦理风险预估和政策规避路径研究已然成为全球治理共识。为此,应当重新审视人工智能技术本质,正视人工智能技术应用带来的诸多技术风险、伦理风险、社会风险和法律风险挑战。实际上,人工智能技术嵌入社会实际应用风险的规避是一项复杂的系统工程,应该致力于构建一个综合性的治理框架。简而言之,应强化风险意识,制定技术伦理规范和培养科学家的人文精神,提高人工智能技术模型的可解释性和可追溯性;以社会合作共治为框架,推进人工智能技术风险的协同治理;推动人工智能技术运用的国际合作,以及人工智能技术伦理与法律标准化治理体系建设。  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号