找回密码
 快速注册
搜索

0

0

收藏

分享

时事 对人工智能技术发展的冷思考

排骨炒面 · 2023年6月26日 10:18:08
       近期,由美国OpenAl研发的新型人工智能聊天机器人程序ChatGPT(Chat Generative Pretrained Transformer)成为全球范围内的热点议题。ChatGPT是由人工智能驱动的自然语言处理应用,能够学习人类语言并与人类实时开展名类对话任务。因其具有强大语言理解能力、内容生成能力等属性,这个曾经只停留在科幻想象里的“无所不知型”机器人已成为现实。甚至连微软公司联合创始人比尔·盖茨也在接受采访时表达,像ChatGPT这样的新程序“将会改变我们的世界”。尽管我们对ChatGPT等人工智能技术的高新科技广泛应用充满着期待,但仍然需要注意就业排斥、知识产权、算法歧视、技术依赖和责任界定等系列问题的产生。基于此,需要采取相应的优化措施推动人工智能的升级和改进,以创造更加健康、稳健和可持续的人工智能生态。

  一、ChatGPT人工智能技术滥用产生的主要问题

  一是责任界定问题。ChatGPT引入办公可能会造成合法性责任争议。例如在以政府为主体的政府治理中,政府的行政行为都是由人类主体作出,并应承担相应的行政责任。但是,如果ChatGPT等人工智能技术逐渐嵌入到办公服务领域中时,企业管理和决策等行政行为也就融入了机器意志。然而,因为ChatGPT技术能够不断地进行自我学习和进化,它的决策结果可能会变得不可预测,导致难以预测其行为后果。作为机器的类ChatGPT是否能够成为责任主体仍然存在争议,算法的决策判断多建立于变量间的关联性而不一定是因果关系,因此人工智能使用者的主观意图与人工智能的行为结果也可能出现偏差,致使决策的责任与问责主体难以判定。而且,这些主体之间的关系相当复杂,在判定基于类ChatGPT做出的主体行为中有没有产生损害以及造成的损害应该由谁承担赔偿责任等方面都比较难以明确,进而形成主体责任模糊问题,责任界定非常困难甚至出现互相推诿的情况。

  二是就业排斥问题。以ChatGPT等人工智能技术在办公领域的广泛运用,可以为企业机构提供更加高效、精准的服务,减轻工作压力,提升工作服务质量。然而,这些技术的使用也带来了一系列问题,如就业岗位流失、就业性质变化等,这些问题不仅引发人们的担忧和不满,还可能对社会秩序造成不良影响。更为重要的是,人工智能对人的替代不仅仅在于体力劳动,也已扩展到脑力劳动的范畴刀,出现了“机器排挤人”的工作场景和“技术性失业”的职场忧思。一方面,ChatGPT可能削弱企业机构的人力需求。对于那些重复性程序化的工作,ChatGPT等智能技术可能会产生不同程度的替代效果,造成部分就业岗位流失,进而导致人员失业,形成就业排斥。另一方面,ChatGPT化可能会导致技术人才缺口扩大。ChatGPT在企业服务中的广泛应用需要有足够的技术人才作为支撑,以保障稳定运行。这将形成技术人才和非技术人才之间的需求矛盾,技术人才缺口扩大的同时在无形之中对其他岗位的人才形成“技术排斥”。

  三是知识产权隐患。ChatGPT可能存在着侵犯用户的知识产权和个人隐私等问题。类ChatGPT的训练数据来自互联网上抓取的大量非结构化数据,其中可能包含企业或个人的知识产权内容,如专利、商标、著作等。目前来看,chatGPT的训练语料库包含约3000亿个词元,在这些词元中,60%来源2016-2019年的Common Craw数据集,22%来源于Reddit链接,16%来源于多种书籍,3%来源于维基百科。在如此庞大的语料资源库中进行数据训练,很容易产生侵权风险,对个人的权益产生危害。例如,全球最大的媒体集团之一新闻集(News Corp.)旗下道琼斯公司日前就发布了声明,OpenAl在未经道琼斯授权的情况下就违规使用《华尔街日报》的行为进行了指责。此外,ChatGPT可能存在着作者署名的争议。ChatGPT作为AI技术的最新发展产物,是否能够成为知识生产的作者是一个值得思考的问题。至少在目前的水平上,ChatGPT所做的工作”只能算是“信息的加工”,所生成的是“新信息”而非可靠的“真知识更不是具有原创性的新的一阶知识顶多能生成基于机器编辑的“二阶知识”,将影响著作成果的权属认定。

  四是技术依赖隐患。虽然ChatGPT等智能技术可以承担部分工作甚至可能比人类做得还要更加出色,但需要考虑的是技术依赖会弱化人们的自主思考和判断能力。一方面,ChatGPT可能会把工作者变成被动学习者,只是机械地将问题输入到类ChatGPT中以获取答案,从而失去了独立思考和解决问题的能力。另一方面,ChatGPT的决策数据来源于各种训练材料的重组排序,因而无法对于决策结果的合理性做出准确的判断,仅仅只是对文本内容进行关联性分析与整合。在这样的情况下,类ChatGPT可能会产生一些信息,造成工作失误和偏差。

  二、ChatGPT人工智能技术有序发展的对策建议

  一是构建人机协同与技能保障机制。为应对ChatGPT带来的就业排斥风险需要完善工作体系、加强技能培训,以防止出现的“技术性失业”和“技能性滞后”问题,促进现代社会的良性运转。需要形成基于生成式人工智能技术的人机协同工作体系。ChatGPT在工作中的应用并不是完全否定工作者的存在意义,而是让浅层的程序性操作由人工智能代劳,工作者转向高层次的思想指导和领导决策。其中人和人工智能各自的职责和任务需要明确划分,以保证各自发挥所长,提高人类与生成式人工智能的工作契合度。

  二是保障数据安全。需要设立严格的数据权限管理和分类应用制度以保护涉及敏感信息和个人隐私的数据安全。应根据数据的保密性程度进行等级划分和权限管理,以ChatGPT为代表的生成式人工智能模型系统无权获取保密性高的数据信息,对有一定保密性需求的数据遵循“适度开放”原则。同时,有关部门负责监管数据的采集、存储、传输和共享过程,确保数据应用的安全性此外,还需要建立安全性评估制度,定期对ChatGPT系统进行安全性审查,对照评估指标进行漏洞修补,保障数据的安全。

  三是保障知识产权。ChatGPT的技术实现要依托人类现有的所有文明、智慧,更需要学习并解析人类即时反馈的数据。因此,需要对训练材料提供者的知识产权保护,以及生成式AI作品是否可以获得知识产权保护等问题予以关注,尽快设立相关的法律规范,或者采取“使用者付费原则”。对于特定领域的生成式人工智能模型,可以选择使用特定领域的数据集进行训练,以避免包含其他企业或个人的知识产权内容。并需要加强对生成式人工智能技术的维护、升级和修复,确保生成式人工智能技术应用能够正常、稳定地运行。同时,需要针对突发情况建立应急响应预案,及时处理出现的技术故障矛盾和纠纷等问题,确保公众利益能够得到充分保障。

特别声明:本文为选调生网注册会员上传并发布,仅代表作者本人观点。选调生网提供信息发布平台。

您需要登录后才可以回帖 立即登录

QQ客服

公众号

①扫码关注官方微信

②绑定个人微信
(可快捷登录)

QQ群

选调生网投稿交流②群

②群798444397

选调生网投稿交流①群

①群681241005(已满)

VIP特权

返回顶部