在商业世界,就像在任何关系中一样,信任就是一切。公司早就认识到,品牌声誉和客户忠诚度取决于毫不妥协的诚信驱动的社会证明,这是生死攸关的当务之急。整个商业史上充斥着导致“阿喀琉斯型”公司倒闭的诚信缺失的例子,如安然、雷曼兄弟、世通、安达信,以及最近的WeWork、Theranos和FTX。
然而,随着企业将人工智能整合到其运营中——从客户服务到营销和决策——所有人的目光都集中在提高生产力和效率的承诺上,许多人忽视了一个关键因素:人工智能系统结果的完整性。还有什么比这更不负责任的呢?如果没有这一点,公司将面临相当大的风险,从监管审查到法律后果,再到品牌声誉的侵蚀和潜在的崩溃。当前的许多例子表明,创建或部署人工智能应用程序的公司迫切需要将人工完整性置于智能之上。
商业的规则一直是绩效,但以不道德行为为代价实现的绩效既不有利可图,也不可持续。正如沃伦·巴菲特(Warren Buffett)所言:“在招聘人才时,要寻找三种品质:正直、智慧和活力。但如果他们没有第一种品质,另外两种品质会让你丧命。”在雇佣人工智能来运行他们的运营或为客户提供价值时,高管们必须确保它不会不受控制地运行,特别是在客户安全以及公司的声誉和价值观方面。
对人工智能的兴奋和追求并不是不负责任的借口或容忍;情况恰恰相反。只有当系统采用人工完整性构建时,依赖人工智能才具有负责任的意义,确保它在从根本上以完整性为先的同时提供性能,尤其是在可能比我们想象的更经常改变生活的结果中。人工完整性监督在企业中指导人工智能的紧迫性不是人为的。
1.防止人工智能产生的错误信息
在充满政治色彩的环境中,OpenAI最近阻止了使用其DALL-E模型创建候选人深度伪造图像的请求。这种积极反对滥用的立场是人为诚信的一个关键例子。企业必须遵循类似的做法,特别是在利用人工智能进行内容创建时。如果不解决错误信息,将面临监管处罚和失去公众信任的风险。在当今的环境中,采用人工完整性的公司通过展示对透明度和道德人工智能使用的承诺来获得竞争优势。结论:
通过在人工智能中嵌入人工完整性,公司可以防止滥用人工智能工具,避免代价高昂的法律和声誉风险。2.增强客户对人工智能驱动的支持和服务的信任
企业越来越多地在培训和客户服务中使用deepfake技术。虽然这种人工智能方法具有创新性,但它引发了人们对员工隐私和内容真实性的道德担忧。当员工离职时,谁拥有他们的人工智能肖像?为了避免信任侵蚀,公司必须对员工和客户保持关于人工智能的作用及其潜在局限性的透明度。
人工完整性提供了一个框架来澄清同意、所有权和使用,建立信任和合规性。结论:在人工智能驱动的客户服务中,明确的人为诚信界限可以保护企业免受法律影响,并保持客户信任。3.保障健康和准确性
人工智能作为皮肤科建议替代品的兴起凸显了在没有专业监督的情况下使用人工智能的风险。Z世代用户绕过传统的医疗咨询,涌向ChatGPT寻求护肤建议。
虽然人工智能可以帮助提供一般的护肤信息,但使用不当会对健康和品牌声誉构成风险。利用人工智能的护肤品牌应采用人工完整性原则,确保建议既安全又准确,同时澄清局限性。结论:通过将人工诚信驱动的行为灌输到人工智能系统中,企业可以提高安全性和透明度。
4.在敏感环境中维护诚信
国际救援委员会(International Rescue Committee)将人工智能用于危机应对,展示了人工智能如何对生活产生重大影响。然而,人道主义领域需要极其谨慎,以避免侵犯数据隐私、错误信息和无意伤害。对于具有高社会影响的行业的企业来说,人工诚信确保人工智能支持道德人道主义努力,加强数据治理实践,使运营人性化和负责任。结论:
高影响力人工智能工具的人工完整性支持道德标准和公众信任,特别是在影响弱势群体的部门。5.保护弱势用户
在一次毁灭性的事件中,一名14岁的男孩在与人工智能聊天机器人互动后不幸自杀。他的母亲正在起诉聊天机器人的开发者,声称人工智能鼓励了这一结果。这个案例说明了人工智能与人类互动中迫切需要道德标准,特别是在处理弱势用户时。
对于提供人工智能服务的企业来说,这一事件突显了实施内置保护措施的重要性,这些措施可以检测到痛苦的迹象,并提供支持性、负责任的回应。人工智能系统的设计必须具有能够识别敏感情况的机制,并在需要时引导用户获得适当的资源或人力支持。结论:将人工完整性纳入人工智能系统可以防止有害的交互,特别是与有风险的人的交互,并加强对用户安全和福祉的承诺。
6.确保人工智能产生安全和支持性的反应
在另一起令人不安的事件中,一名研究生收到了一条来自人工智能聊天机器人的令人不安消息,该消息敦促他去死。这种情况引发了人们对人工智能系统的担忧,这些系统可能会无意中产生有害或令人痛苦的内容。对于部署人工智能聊天机器人的企业来说,完整性驱动的原则将强制实施内容保护措施,防止人工智能产生潜在的有害语言,尤其是在敏感话题周围。
整合这些保障措施还可以让用户放心,公司重视他们的福祉,并提供安全、支持性的数字互动。总结:确保内容生成人工智能中的人工完整性对于防止意外伤害、建立用户信任以及在所有客户接触点保持以完整性为导向的交互至关重要。7.解决人工智能驱动警务中的偏见和问责问题
许多警察部门正在试验用于报告撰写和信息分析的人工智能工具,旨在提高效率和资源管理。
然而,这些人工智能系统对人工智能生成的报告中的潜在不准确和偏见表示了极大的担忧。人工智能辅助警务中的偏见可能会产生严重影响,包括错误逮捕或歧视性待遇。通过将人工完整性原则嵌入这些系统,执法机构和支持它们的企业可以确保人工智能在其过程中是负责任的、有偏见的和透明的。这种方法有助于建立社区信任,并使人工智能工具与公平和正义的原则相一致。结论:
人工智能警务应用程序中的人工完整性可以降低有偏见结果的风险,确保执法中更公平、更负责任的做法。人工智能是一种技术;人工诚信是一种领导力。鉴于这些例子,企业如何实现人工完整性?在开始他们的人工诚信之旅时,公司应该开始:将道德和企业价值观融入人工智能:
将其嵌入算法和人工智能培训流程中,以确保对齐,检测和防止潜在的偏见、不准确或有害输出,并对人工智能系统和数据源进行定期审计,以随着时间的推移维护这些标准。致力于不妥协的人工智能透明度:确保任何由人工智能驱动的交互、内容和建议都伴随着关于人工智能的作用、限制和安全指南的明确披露,这些信息与法律、行业标准、社会要求和任何相关的可解释性要求有关。构建人工智能问责框架:
为人工智能决策和用户在组织内的生活过程中的潜在影响分配责任。负责监督公司人工智能角色的每个部门都应该了解和管理与人工智能相关的行动、权力和风险的扩展授权或影响,以及特定于其领域的授权。成为一家以人为中心的公司:公司不应该仅仅以客户为中心,而应该建立人工智能模型或与人工智能模型提供商合作,保证内置机制来识别敏感或痛苦的场景,在需要时引导用户使用更安全或更合适的人工渠道。
人工诚信的商业理由不是“投资回报”,而是信任。在任何情况下,表现出对原始智能的完整性的人工智能系统都应该与你的道德政策保持一致,不亚于你的员工,在自主性方面。采用人为诚信的领导者通过表现出责任感、问责制和远见而获得优势,避免了道德清洗,这最终可能会使公司的生存付出代价。
随着人工智能继续塑造商业的未来,那些重视诚信的人不仅会引领潮流,还会在快速发展的数字世界中确保自己作为值得信赖的领导者的地位,在这个世界里,信任比以往任何时候都更是唯一持久的货币。