文章来源:台湾科技媒体中心
议题背景:
台湾预计9月提出「人工智慧基本法」草案,目前行政院初步可能纳管广播电视、有线广播、卫星广播等媒体及频道业者使用生成式AI如ChatGPT来产生内容。全球也已有一些近期监管AI的重大方向与作为可参考。台湾科技媒体中心整理几个近期重要资讯如下。
- 欧洲:欧洲议会(European Parliament)於5月11日核准一份人工智慧(AI)监管法案,已於6月14日通过草案,成为全球首个监管AI的法案。 Google也主动与欧盟主管机关商讨AI法规,接下来将继续修正成为正式法案。根据欧洲议会新闻稿,此草案是为了确保人工智慧系统受到人的监督,确保人工智慧是安全、透明、可追溯、不会有歧视,且是友善环境的。草案中提及应禁止人工智慧生物辨识、情绪辨识的技术用於监控、应禁止预测性警察活动的技术,以及应量身订制常用AI模型例如ChatGPT的相关规范。
- 美国:美国参议院司法委员会於5月16日举办监管AI的听证会,会议上OpenAI执行长阿特曼(Sam Altman)提出建议监管AI的层面包含,建立专责的机构以许可AI的相关证明、制定AI模型的安全标准,以及寻求专家根据指标来审查AI模型的表现。
- 国际会议:在日本广岛举行的七大工业国组织高峰会议(G7)中,与会代表於5月20日声明,各个会员国家可能是用不同的方法和目标发展可信赖的AI技术,但共识都是让监管数位科技如AI的法规,符合彼此共享的民主价值。G7会员国代表同意将在今年底召开论坛,讨论生成式AI带来的问题,例如版权和错假讯息。
- 澳洲:澳大利亚工业科学资源部於6月1日发布一份讨论文件〈澳大利亚安全与负责任的人工智慧〉(Safe and responsible AI in Australia)支持负责任的人工智慧,这份讨论文件着重在治理人工智慧的机制,确保在澳洲可以安全使用AI、负责任的开发AI。这些机制包含管理的规定、标准、工具、框架、原则,以及商业应用。这份文件内容是以最近澳洲国家科学技术委员会的首席科学家办公室(Chief Scientist)发布的另一份报告(Rapid Response Information Report: Generative AI)为基础。
由於监管与规范人工智慧将影响学术研究,台湾科技媒体中心邀请台湾研究人工智慧的专家依据自身研究经验发表看法,藉此次机会让更多人看见研究人工智慧的科学家们的专业意见,有助於促进基於科学观点的公众讨论,也让相关制定规范或法案的单位有更多机会采纳多元的意见。
专家怎麽说?
【许志仲】【林春宏】【谢舒凯】【林守德】
2023年06月29日
国立成功大学数据科学研究所暨敏求智慧运算学院资料科学中心助理教授 许志仲
1. 我们的认知是人工智慧有不同的研究方向、学理、技术,以及产出的应用,您认为哪些性质的人工智慧需要优先监管?
一般来说,人工技术通常分为辨识任务、生成任务、以及辅助(如资料分析或其他)等方向。目前相对较为主流的AI生成模型,可以产生以假乱真的图片、文字、语音等资料,影响最为明显,优先监管是必然。举例来说,常见的 DeepFake 的危害,会导致网路上的多媒体资讯不受信任,甚至影响经济与社会和谐等。然而,不能忽略的是各种人工智慧模型,只要该模型能介入日常生活,便需要受到监管。举例来说,有些公司开始采用以人工智慧来分析面试者甚至现职员工的未来表现,以利上位者简单做出资遣或不聘任的决策,而这些人工智慧方法在训练过程中是否有所偏颇、分析过程是否合理,都须有相关规范,才能同时达到社会和谐与提高效率的目标。
2. 监管和规范人工智慧,代表无法再继续发展特定的研究领域,或是研究方向受限吗?
我认为监管与规范是帮助人工智慧在发展技术的过程中,可以最大化对社会每个个体的效益并最小化风险的一个好方式。比方说,AI for Social Good是 Google 於 2019 年提出来的策略,其中没有任何一条是限制研究的发展,相反的,这是给研发 AI 的科学家一种指引,使其研发可以更专注在未来人类社会更有助益的方向。举例来说,如果很早期就已经制定好生成模型的相关法规,那麽现在网路上看到 DeepFake 的多媒体讯息可能相对少很多,但并不会影响生成模型的研究发展。
3. 台湾的人工智慧研究或发展,和国际其他国家或区域有何不同之处?若台湾要参考国际其他国家或区域的人工智慧监管规定,如何制定符合台湾情况的规范,或设立专责的机构?
我个人认为人工智慧监管有其通用性,全球应设法制定一个通用的准则,各国再依据自身情况加以微调。举例来说,台湾在於半导体相关产业非常强大,因此,应用於半导体相关人工智慧的监管,可能就要与其他国家不同,并且必须要产业、社会、以及政府三方共同加入法规制定,甚至建立相关专责机构,方能达到最大效益。
利益声明:无利益无关。
2023年06月29日
国立台中科技大学 资讯工程系教授 林春宏
1. 我们的认知是人工智慧有不同的研究方向、学理、技术,以及产出的应用,您认为哪些性质的人工智慧需要优先监管?
(1)自主性人工智慧:自主的人工智慧系统需优先监管,以确保合乎伦理和法律。
(2)高风险领域的应用:在高风险领域的学术应用中,优先监管人工智慧,以保障人类的生命、健康和安全。
(3)个人隐私和数据保护:学术领域中的人工智慧处理大量个人敏感信息,需优先监管,确保隐私和数据保护。
(4)偏见和不公平性:需要优先监管可能存在偏见的人工智慧系统,以确保公平和无歧视的应用。
(5)系统安全和韧性:需要优先监管具有高风险应用的人工智慧系统,以确保其安全性、韧性和可靠性。
(6)学术诈骗和不端行为:人工智慧技术的滥用和应用於学术诈骗或不端行为的风险需要受到监管和防范。
(7)知识创作和知识所有权:人工智慧系统在学术领域的应用可能引发知识创作和知识所有权的问题,这需要进一步的监管和探讨。
以上监管措施的目的是保护公众利益、确保人工智慧的应用是安全、负责任和符合道德的,同时促进人工智慧的持续发展和创新。
2. 监管和规范人工智慧,代表无法再继续发展特定的研究领域,或是研究方向受限吗?
监管旨在确保人工智慧的安全和负责任使用,减少潜在风险的影响。目标不是完全限制研究方向,而是鼓励创新和学术自由。监管的目的是确保人工智慧的安全、公平和负责任的应用,以保护人类利益和社会福祉。
3. 台湾的人工智慧研究或发展,和国际其他国家或区域有何不同之处?
(1) 技术实力:台湾科技强大,有优秀人才和研发环境,致力於人工智慧技术开发和应用。
(2) 产业应用:台湾在人工智慧研究和产业应用中紧密结合,尤以智慧制造、物联网、机器人等领域成就突出。
(3) 政府支持:台湾政府积极支持人工智慧研发,制定政策、提供资金,促进技术应用。
(4) 国际合作:台湾积极参与国际人工智慧合作,与其他国家科学家合作、参与国际会议和研究项目。
(5) 法律和伦理规范:台湾积极制定法规和政策,保护人工智慧的伦理和隐私安全。
4. 若台湾要参考国际其他国家或区域的人工智慧监管规定,如何制定符合台湾情况的规范,或设立专责的机构?
(1) 研究和评估:研究评估国际人工智慧监管规定,了解各国法律、政策和监管实践,特别关注与台湾相关的方面。
(2) 分析台湾情况:评估台湾人工智慧现况、挑战和需求,并确定特殊监管需求。
(3) 制定适用规范:制定适用台湾的人工智慧监管规范,包括隐私保护、伦理标准、透明度和责任等。
(4) 法律和政策制定:将人工智慧监管规范纳入台湾的法律体系和政府政策,通过立法或行政命令等程序进行具体化。
(5) 建立专责机构:成立专责机构监管人工智慧,包括合规、风险评估、指导原则、合作沟通和培训等。有效规范人工智慧发展,促进国际合作。
制定适合台湾的人工智慧监管规范是一个多方参与的复杂过程,需政府、学界、业界和公众共同参与,平衡风险与发展。
利益声明:无利益相关。
2023年06月30日
台湾大学大语言学研究所副教授 谢舒凯
1. 我们的认知是人工智慧有不同的研究方向、学理、技术,以及产出的应用,您认为哪些性质的人工智慧需要优先监管?
AI 因其侧重的应用不同,涉及的规范可能也不尽相同。比较应该优先考量的,可能像是有自主学习与决策能力的系统,以及会纪录与侦测个人隐私、生理与社会生活资料的系统。目前最热门的生成式 AI 内容(AIGC),涉及到数位社会最重要的资讯生成、传播等议题,也是需要优先监管的部分之一。
2. 监管和规范人工智慧,代表无法再继续发展特定的研究领域,或是研究方向受限吗?
不尽然如此。较关键的可能不是规范的宣示与完备,而在於是否有一个专责的、透明的、有事实与系统成效研究与评测的机构(最好不是全官方组织),能够在多方衡量的实证基础下施行与运作。
我个人的经验是,台湾公部门对於研究信赖这件事比较没有整体规划。这可能与法律文化有关。这样的法规,一旦定调在监管,就是设法设置路障与门槛,以及防止各种可能风险的细节规范。比方说,我们可以有很严格的学术伦理法则,但是在实务运作上,却容易造成研究人员的灰心与阻碍,很大的影响研究推展与投入动机。同样的,对於 AI 监管议题,如果只是法规跟风,看似国际评比指标不错,但有很大的机会让台湾的AI相关研究无法产生极大的动能。
我想强调的是,AI 研究是影响全人类的重要科技,监管法规是用来保护人类尊严与价值,这是绝对优先重要的。但是全球竞争,且并不是所有问题皆可以透过科技和知识的进展来解决,监管法规某个角度应该同时是让研究者照顾研究对象的安全,以及在研究成果透明(让研究对象知道做什麽用途)之下,可以更放胆去开拓,激发更有创意的应用。从我的角度,监管这个词汇贬低了这种新法律文类的前瞻性意义。
3. 台湾的人工智慧研究或发展,和国际其他国家或区域有何不同之处?若台湾要参考国际其他国家或区域的人工智慧监管规定,如何制定符合台湾情况的规范,或设立专责的机构?
台湾有急迫的政治生存压力,又处在国际政经角力下。我觉得需要另外思考,不能只是当成立法的问题,还涉及国防外交、国际政治与经济等不同层面的规范。
语言,其实是最可怕的武器。摧毁与煽动人心可以不需要高端国防科技,这一点,在我们的社会似乎没有高度的警觉。特别是前述的 AIGC 已经被极权国家当成武器研发,目前的 AI 发展趋势之一是可以综合理解文字、语音、影像、影片的能力,也是生成式 AI 目前的发展方向,虚假文字讯息也会跳脱文本为主的模式潜流在社会各地。我们需要有防堵与反制生成式AI的准备与能力。
制定相关监管法规,可能要跨部会(国防、外交、经济)来思考。极权国家习惯用民主国家保障的价值来摧毁民主,我认为在此脉络下,有些规范甚至涉及国家安全机密与价值攻防,有特别安置与保密的设计需要。
利益声明:无利益相关。
2023年07月06日
台湾大学资讯工程学系 / 资讯网路与多媒体研究所教授 林守德
1. 我们的认知是人工智慧有不同的研究方向、学理、技术,以及产出的应用,您认为哪些性质的人工智慧需要优先监管?
制订AI使用规范从出发点而言是合理的,但是从定义面上来看这个草案仍嫌粗糙,还是有许多待厘清之处。笔者觉得应该是以AI的「应用」来定义所谓的危机程度(risk level)。然而,在这个规范中往往应用跟技术混用无法厘清。以「人脸辨识」为例,欧盟监管草案认为人脸辨识是不可接受的风险(unacceptable risk)需要被禁止。然而,笔者认为应该是看人脸辨识这个「技术」被拿来做什麽「应用」。如果是用在解锁个人手机、公司出入管理,没有什麽禁止的理由;但是如果是用来监控居民,的确是有可议之处。
2. 监管和规范人工智慧,代表无法再继续发展特定的研究领域,或是研究方向受限吗?
欧盟这个规范中限制了AI的使用,然而却留下许多自相矛盾之处。例如利用AI从事执法(如测试证人的可信度)被认为是高度风险的,然而现在测谎器在许多国家其实都有使用;背後的机制利用生理讯号判断一个人是否说谎其实也可以当成是一种机器学习的模型。
3. 台湾的人工智慧研究或发展,和国际其他国家或区域有何不同之处?若台湾要参考国际其他国家或区域的人工智慧监管规定,如何制定符合台湾情况的规范,或设立专责的机构?
这样的规范是否容易付诸实行?笔者认为光是要厘清什麽是AI系统、什麽不是可能,就要花很多心力。例如坊间常常听到的「智慧型空调系统」其实可能只是对温度湿度作一些动态的调整,这算不算是AI?这些空调系统如果因为欧盟的AI规范而被禁止,它是否只需要改个名称就不算AI?它要如何「证明」自己是或不是AI?自驾车大家都觉得是AI,但是飞机的自动驾驶呢?飞机自动驾驶技术远在AI这个词汇被发明前就已经在使用了。所以如何定义怎麽样的产品或是应用应该被这个法规所规范,又是一个很困难的问题。
4. 若台湾要参考国际其他国家或区域的人工智慧监管规定,如何制定符合台湾情况的规范,或设立专责的机构?
从新创的角度,这样的法规有可能扼杀未来AI新创的动力,因为每次开发一项产品就有许多需要「自我证明」的项目需要认证。例如欧盟监管草案它要求大语言模型的建构需要「证明」所有的训练资料都要符合规范。但是,训练大语言模型的资料动辄数亿甚至兆笔,一般的新创可能没有资源去验证这些资料是否合规。笔者的看法是,一个负责任的立法,除了能够制订合理规范外,应该也要投入资源去开发相关的数位技术来解决业者可能会遇到的问题。例如如果欧盟可以开发一个能够验证训练资料是否合规的工具,相对也可以缓解对新创的冲击。
版权声明
本文欢迎媒体转载使用,惟需附上资料来源,请注明台湾科技媒体中心。