一种在不阻碍进步的情况下管理人工智能道德使用的方法
德克萨斯A&M大学公共卫生学院的研究人员正在开发一种新的治理模式,用于在快速发展的人工智能(AI)领域进行道德指导和执行。被称为Copyleft AI with Trusted Enforcement(CAITE)的研究人员认为,这种模型将在不阻碍技术进步的情况下防范AI的潜在危害。
公共卫生学院助理教授兼卫生法律和政策项目主任Cason Schmit,JD,Sage Bionetworks的Megan Doerr和宾夕法尼亚州立大学的Jennifer Wager,JD在最近的一篇文章中讨论了他们的新模型。
人工智能(AI)有望彻底改变我们日常生活的方方面面。然而,滥用基于人工智能的工具可能会造成伤害,特别是对已经面临不平等和歧视的社区。这种潜在的伤害需要通过监管和政策进行道德指导。但是,人工智能的快速发展和政府监管往往不灵活的性质使得创建这种道德指导具有挑战性。
Schmit,Doerr和Wager开发了CAITE模型来应对这些挑战。CAITE 结合了版权左派许可和专利流氓模型的各个方面,这两种管理知识产权的方法可以被认为是相互矛盾的。
Copyleft 许可允许在归属原创作者或非商业用途等条件下共享知识产权,衍生作品必须使用与原作品相同的许可条款。知识共享许可是一种版权左派许可。然而,版权左派许可计划通常几乎没有执法权。
CAITE 模型的另一面使用专利流氓方法,该方法使用执法权来确保合规性。专利流氓是一个拥有知识产权并在法庭上起诉他人的组织,作为创收的一种方式,而不是创造或许可技术。
CAITE 模型建立在道德使用许可证之上。该许可证将限制某些不道德的AI使用,并要求用户遵守行为准则。重要的是,它将使用copyleft方法来确保创建衍生模型和数据的开发人员也必须使用与父作品相同的许可条款。许可证会将许可证的执行权限分配给称为 CAITE 主机的指定第三方。通过这种方式,所有这些道德使用许可证的执法权将汇集在一个组织中,使 CAITE 主机成为人工智能的准政府监管机构。
“这种方法结合了两个世界的优点:一种与工业一样快速和灵活的模式,但具有传统政府监管机构的执法能力和权力,”施密特说。
作者指出,使用由AI开发人员社区指定的非政府方可以在执法和监督方面获得更大的灵活性。CAITE 房东可以为不道德的行为设置后果,例如经济处罚或报告违反消费者保护法的情况。
同时,CAITE方法允许宽大政策,可以促进自我报告,并提供典型的政府执法计划通常缺乏的灵活性。例如,鼓励AI用户报告他们在AI模型中发现的偏见可以使CAITE主机警告依赖这些潜在危险AI模型的其他AI用户。
Schmit及其同事指出,CAITE方法虽然灵活,但需要人工智能社区的很大一部分参与。此外,试点实施使用CAITE方法制定的伦理政策将需要进一步的研究和资金。实施此模型还将依靠来自许多不同学科的AI社区成员来开发其功能并克服出现的挑战。
尽管这需要大量的社区支持,并可能需要政府的激励措施,但Schmit及其同事表示,行业可能更喜欢更灵活的CAITE框架,而不是政府最终可能实施的严格且适应缓慢的法规。
“促进道德和值得信赖的人工智能的努力必须超越法律规定的可接受行为的基线,”瓦格纳说。“我们可以而且应该努力做得比最低限度可以接受的更好。
一旦实施,CAITE将在不阻碍技术进步的情况下防范人工智能的潜在危害。研究人员表示,随着人工智能继续扩展到我们的日常生活中,响应式道德框架的价值将变得至关重要。