头条新闻频频出现,宣称人工智能将在下一个伟大的应用领域。通常情况下,医疗保健似乎会收到更多这样的通知。确定关于人工智能的断言背后的有效性可能很困难,但也不一定是重点。也将有真实的主张和其他不辜负炒作的主张。可能更有趣的问题是,包括开发和使用在内的人工智能对隐私有何影响。
人工智能系统需要开发,训练和不断完善大量数据。数据从哪里来?如果我们在谈论医疗保健,则数据必须是关于患者的,这意味着必须吸收,利用和保存敏感的,受监管的信息。在使用保健信息的情况下,HIPAA具有最明显的影响,因为众所周知,HIPAA规范了患者信息的使用和披露。
如果AI需要患者信息,那么AI会给隐私带来哪些挑战?一些主要问题包括可能导致无法进行身份识别,算法偏差以及患者安全或治疗错误。不可辩驳的无法识别数据是最大的担忧之一。关注的基础是AI系统将从许多不同的源中提取数据点,以至于即使删除了HIPAA取消身份识别标准所需的所有标识符,仍然可以识别个人。如果AI使得取消身份识别成为不可能,那么这些系统将取消HIPAA的能力,以获取和保留一定水平的数据,以开发和维护系统。
第二个隐私问题是算法偏差。这种关注的基础是AI系统要么包含引入或推动不适当决策的数据源,要么会训练AI的人员有偏见。无论哪种方式,偏见的引入都可能需要从更多来源获取更多信息或采取不必要的干预措施,从而侵犯个人的隐私。如果无法找到问题的根源,那么将此类风险嵌入系统中可能就不容易纠正。
从失去隐私的角度考虑,消除基于不良来源数据的偏见的观点是从越来越多样化的来源中吸取更多数据。如果发生这种情况,那么停止点在哪里?总是可以争辩说要引入越来越多的数据,但是将所有数据馈送到系统中可能会产生未知的,意想不到的以及其他无法预料的影响。同时,如果无法从数量有限的来源中获取数据,则可能无法使系统充分满足可能使用该系统的各种人群的需求。因此,非常真实的潜在偏差可能会鼓励设计,因为隐私可能会阻碍收集足够的数据以减少偏差的能力,因此设计不会给隐私提供足够的空间。