人工智能技术在行政审批中的运用探讨

2024-04-23 06:36李蕊蕊
中国信息化 2024年3期
关键词:解释性透明度决策

李蕊蕊

一、引言

随着科技的不断发展,人工智能技术在各行各业得到了广泛应用。行政审批作为公共管理的关键环节,其效率和透明度直接关系到政府服务水平和社会治理现代化。人工智能技术为行政审批注入了新的活力,通过智能化的数据分析、模型预测以及流程自动化处理,为政府机构提供了更加高效、准确、可靠的审批服务。然而,人工智能在行政审批中的运用也引发了一系列的关注与讨论,如信息安全、隐私保护、公正性等问题。因此,针对人工智能技术在行政审批中的应用,既需要充分認识其带来的便利,也需要审慎思考其可能涉及的伦理和法律挑战。本文将对人工智能技术在行政审批中的问题、优化路径进行细致剖析,以期为推动行政审批现代化提供有益参考。

二、人工智能技术在行政审批运用中存在的问题

(一)隐私与安全风险

首先是隐私泄露的风险。随着个人数据在互联网系统的集中存储和处理,个人身份信息、财务状况等敏感数据一旦遭到未经授权的访问,将可能导致用户隐私的严重侵犯。其次,信息安全问题。由于审批系统需要在网络中传输、存储大量敏感数据,这使其成为网络攻击的重要目标。例如,恶意软件和网络钓鱼攻击可能导致系统遭受病毒感染或黑客入侵,从而使得大量涉密信息暴露在公开网站上。最后,隐私与安全问题的综合影响可能引发社会的不信任和担忧。公众对于个人数据被不当使用或泄露的担忧可能减缓人工智能在行政审批中的推广。例如,一些公众可能对于政府或相关机构收集和处理个人信息的方式表示质疑,担心其对个体隐私权的侵犯。

(二)技术可解释性差

许多人工智能算法,特别是深度学习模型,以其复杂的结构而著称,使得其决策过程难以被科学解释,这种黑盒操作可能引发公众和相关利益方对于审批决策的不信任感。而且,技术可解释性差会导致审批系统中的决策无法被有效地揭示。在一些敏感案例中,针对系统做出特定决策的原因进行解析至关重要,而缺乏可解释性使得当局难以向当事人或相关方解释系统的决策依据,进而导致法律纠纷,特别是当审批结果被质疑的时候。此外,技术可解释性差也使得人工智能系统在面对复杂和多变的审批场景时表现不稳定。比如,在处理新型案例或变化较大的情境时,系统的决策很大可能会变得难以预测,从而影响审批的准确性和可靠性。

(三)法律规范不完善

由于人工智能技术的快速演进,现有的法律法规难以及时跟上技术的发展,导致在行政审批中产生法律的真空区。未能明确界定人工智能系统的责任和义务,以及与人类审批员的权责对等问题,造成法律适用的困境和法律风险。同时,由于人工智能系统的复杂性和自主性,很难确定应用人工智能技术的具体边界和限制。例如,在行政审批中使用人工智能系统进行决策时,可能存在对关键术语和标准的解释模糊,导致不同的解读和执行结果。这给行政审批的公正性和可预测性带来挑战,也给申请人和监管机构带来了不确定性。例如,在某些地区,对于人工智能系统的决策结果是否可以上诉、如何解释系统决策的依据等问题,法律规范存在模糊性,导致申请人和相关方面的权益无法得到充分保障。

(四)成本和投资问题

首先,引入人工智能技术需要较大的投资。开发和实施人工智能系统需要大量的资金和资源,包括专业的技术团队、高性能的计算设备以及庞大的数据集。这些投资对于行政机构来说可能是一个巨大的负担。其次,人工智能技术的使用还需要持续的成本支出。一旦人工智能系统建立和部署,还需要不定期维护、更新和升级。这需要专业的技术人员进行监督和管理,同时还需要投入资金来购买新的硬件设备或软件许可。最后,对于行政机构来说,引入新的技术需要对工作人员进行培训,以便他们能够熟练地操作和管理人工智能系统。同时,一些现有的审批流程和规则也需要进行调整,以适应人工智能系统的运用。这些培训和调整的成本不仅包括时间和金钱,还可能导致工作人员的不适应和抵触情绪,从而影响整体的工作效率。

三、人工智能技术在行政审批运用的优化路径

(一)联合隐私保护技术

一方面,引入联合隐私保护技术,通过多方参与计算的方式,将数据的处理过程分散在不同的节点上,避免集中式数据处理带来的潜在隐私泄露风险。联合学习、联邦学习等技术可以让各个参与方在不共享原始数据的情况下完成模型的训练,从而保护了个体数据的隐私。另一方面,差分隐私技术通过在数据中引入噪声或者扰动,以保护个体数据。在行政审批中,可以整合差分隐私技术,对敏感信息进行适度的扰动,以防止恶意攻击和数据重识别。这有助于提高系统的抗攻击性和数据隐私性。此外,需要制定和推广联合隐私保护的标准,建立一套系统的技术规范和行业准则,这有助于在人工智能技术应用中建立统一的隐私保护标准,提高各方对隐私保护的共识,降低实施过程中的风险。

(二)提升算法透明度

首先,促进透明度标准的建立。制定和推广透明度标准,要求在行政审批中使用的人工智能算法必须满足一定的透明度要求,这可以包括确保算法的输入、输出、决策过程以及使用的数据都能够被清晰解释和理解。其次,促进可解释性算法的研发。可解释性算法能够更清晰地展示算法的工作原理和决策依据,降低黑盒模型带来的不确定性和难以理解的问题。这可能包括使用决策树、解释性模型或者对抗性训练等技术,以提高算法的可解释性。最后,推进社会参与和审查机制的建立。鼓励公众、专业组织、独立的第三方机构参与对人工智能算法的审查。通过多方参与,可以确保算法透明度标准的制定和实施是公正和全面的,有助于监督算法的使用,确保其在行政审批中不受到滥用或歧视性的影响。

(三)推动法律规范升级

一是推动升级现有的法律法规,以更好地适应人工智能技术在行政审批中的应用。这包括对数据隐私、算法透明度、责任追究等方面的规定,确保法律框架能够全面而准确地覆盖人工智能应用中可能涉及的各个方面。二是促进不同部门之间的合作,确保法规的升级是全面而协调的。人工智能技术在行政审批中可能涉及多个领域,包括科技、法律、行政等,需要不同领域的法规协同工作,可以建立跨部门的协同机制,推动相关立法更好地适应技术发展。三是制定法规时要注重灵活性和前瞻性,允许法规在技术发展的变化下能够灵活调整。同时,也要预测和适应未来可能出现的人工智能技术应用场景,以便及时应对新兴问题。最后,考虑建立专门监管人工智能在行政审批中应用的机构,负责制定相关规定、监督执行、解决纠纷和跟踪技术发展,这有助于确保监管机构具有专业性和高效性,能够及时响应技术发展并制定相应的法规。

(四)多方协作共享

首先,可以采用云计算和共享资源的方式降低投资成本。云计算提供了灵活的计算和存储资源,行政机构可以根据实际需求进行按需购买,避免了大规模的硬件设备投资。其次,可以寻求公私合作的机会,与私营企业或科技公司合作,共享技术和资源,从而减轻行政机构的负担。私营企业往往有更先进的人工智能技术和专业团队,可以提供解决方案和技术支持。另外,行政机构还可以逐步引入人工智能技术,采用渐进式的方法,而不是一次性投入大量资源,可以选择先在少数领域或流程中应用人工智能,逐步扩大应用范围,实现成本和风险的控制,并在实践中逐步积累经验和改进技术。最后,还可以整合现有的数据系统和流程,减少数据采集和处理的重复工作,降低成本和资源消耗。

四、结语

在未来,随着技术的发展和经验的积累,人工智能技术在行政审批中的应用将变得更加成熟和普遍。然而,我们也应该认识到,人工智能技术并非万能之策,其应用需要谨慎考虑,避免出现数据安全、隐私保护和法律规范滞后等问题。在推动人工智能技术发展迅猛发展的时代,行政机构可以联合隐私保护技术、推动法律规范升级,通过多方协作、共享资源,开创智能审批时代,为社会建设和经济发展注入新的活力。

作者单位:青海民族大学政治与公共管理学院

猜你喜欢
解释性透明度决策
为可持续决策提供依据
论行政自由裁量的“解释性控权”
决策为什么失误了
中国FTA中的透明度原则
英汉互译中的认知隐喻翻译探究
融媒体时代解释性报道的发展之路
非解释性宪法适用论
股权结构与信息透明度相关性的实证研究
提高上市公司会计信息透明度的对策
提高基金会透明度 促进慈善事业发展