人工智能的人文主义,如何让AI更有爱
inkMacSystemFont, " font-size:15px;background-color:#ffffff;"=""> 首先,从源头上堵住不利于人类社会发展的人工智能体出现。规范人工智能科学家的行为,在技术研发前引入伦理委员会机制,预测风险,并在程序设置中加以控制,重要的是找到使用人工智能造福人类的人。 inkMacSystemFont, " font-size:15px;background-color:#ffffff;"="">至于将人类哪些价值观注入人工智能,使其更好地为人类服务呢?这其中包括以人为本,珍视人的生命、保护人的尊严,尊重人的自由和平等的价值观;技术进步最终受益者应是全人类、全社会的公正的价值观;人类和大自然之间的关系必须秉承和谐原则的价值观等。 inkMacSystemFont, " font-size:15px;background-color:#ffffff;"="">其次,人工智能体的设计,尤其是机器人的设计和应用必须遵循阿西莫夫的“机器人三大定律”,并以此为法则,在“不伤害”原则的前提下,培养人工智能体与人类的良好交互能力。“机器人三大定律”首要原则是不能伤害人类,或者保护人类不受伤害; 其二是听命与人,但不得违反第一原则; 其三是保障自身安全,但同时不得违背上述两点原则。三大定律定位了作为人工智能体的机器人,仅仅是人类在自身发展过程中创造的一个工具。不管机器人有无意识,有无自我决策能力,它都必须遵守“不伤害”的原则,这是应用伦理学秉承的核心原则,而其产生的最大诉求就是为了人类社会运转更经济、更有效率。inkMacSystemFont, " font-size:15px;background-color:#ffffff;"=""> inkMacSystemFont, " font-size:15px;background-color:#ffffff;"="">克劳福德和卡洛(Crawford&Calo)提出了人工智能的社会系统分析途径,他们指出人工智能的设计者和研究者不仅需要评估人工智能对社会、文化和政治环境的冲击和影响,而且需要评估社会、文化和政治环境对人工智能的影响。社会系统分析工具的构建涉及哲学、社会学、人类学和科学技术研究等相关学科,需要对人类社会与技术变革的交互影响进行综合权衡。科学家需要给予人工智能以人类的思考方式、思维模式;给予人工智能以感受人类的情感的能力,使其能感受人类的情感变化,对人类情感变化做出一定的反应;给予人工智能以人类的文化底蕴,使其能够理解人类的文化,从而与人类进行一定的文化互动,丰富人类的精神生活;给予人工智能识别不同文化背景人的能力,对不同文化背景的人采用不同的交流方式,与其进行不同的文化互动;给予人工智能以表达情感的能力,能对人类进行一定的情感干预,使人类保持积极向上的心态;从听从指令到能察觉出人类的潜在需求,进而自动的为人类所需服务。
inkMacSystemFont, " font-size:15px;background-color:#ffffff;"="">再次,政府的管控不能缺位,要保证研究结果获得分享,不让某个团体单独受益。当一项能够给人类带来很大便利的技术投放市场时,政府、私人企业和学术界谁来控制它,就成为一个必须明晰的课题。政府的管控是否缺位、及时,引导是否正确、到位,都是制约人工智能发展偏离轨道的重要因素。最后,人类要保持对大自然的敬畏之心,对理性抱有谨慎的信心。要知道,我们目前拥有的这些难以置信的感觉,相对于宇宙和自然界来说,还仅仅是沧海一粟,我们没理由狂妄自大,而应时刻提醒自己,科学探索无止境,技术使用有禁区。 (编辑:衢州站长网) 【声明】本站内容均来自网络,其相关言论仅代表作者个人观点,不代表本站立场。若无意侵犯到您的权利,请及时与联系站长删除相关内容! |