人工智能技术的迭代升级,使得“换脸”“换声”成为可能,“AI复活”“数据杀熟”等案例频发。我们不禁思考,智能时代下,AI的道德底线究竟在哪?其引发的不同程度的伦理风险该如何应对?拨开迷雾,江苏师范大学“人工智能伦理风险”调研团于6月16日在徐州市内进行了一系列调研活动。
图为团队成员合照
探秘AI道德边界,审视多重伦理风险
为了全面了解AI技术的应用情况和伦理风险,我们团队采用了问卷调查、深度访谈和实地考察等多种调研方式。在调研过程中,团队成员首先深入一线,与AI开发者、应用者及受影响的群体进行面对面的交流与探讨。此外通过线上和线下两种形式发放了调研问卷,问卷内容涵盖了算法公平性、社会性、侵权性、失控性等多方面风险,广泛收集公众对AI伦理风险的看法和建议。
图为团队成员与人工智能相关从业人员访谈照片
图为团队成员与人工智能应用者访谈照片
图为团队成员与人工智能应用者访谈照片
图为团队成员对徐州市民开展问卷调查
图为团队成员对徐州市民开展问卷调查
在调研过程中,我们了解到公众对于AI技术的态度和期望。例如,许多受访者都有关于数据隐私和安全的担忧,他们担心在使用AI服务时自己的信息被滥用,由此产生极大的不安全感;还有一些受访者指出,由于算法设计的不合理或者数据的不完整,AI在做出决策时可能会产生歧视和偏见,对特定群体造成不公平的待遇,这种现象在教育、医疗等领域尤为突出。许多受访者表示,他们希望AI更加人性化、智能化,更好地为人类服务,同时呼吁政府、社会加强对AI技术的监管和规范,确保AI健康、可持续发展。
深掘AI伦理根脉,筑牢智能风险防线
通过调研,我们收集到大量真实、鲜活的案例和数据,经过团队成员利用专业的数据分析工具对数据进行了整理和比对后,我们将AI伦理风险类别主要作了五种界分,分别是失控性风险、社会性风险、侵权性风险、公平性风险和责任性风险,其中每一种风险都有其具体的表现形式和细分。通过对AI伦理风险类型和具体表现形式的深入研究和探讨,我们可以更好地理解AI技术带来的伦理挑战。
指引AI生成精彩,推动智能技术向善
人工智能技术日新月异,伦理规范和监管制度难免存在滞后性。加之伦理问题的复杂性,各个地区规范存在差异,许多规定过于原则性,缺乏可操作性,难以有效落地实施。因此,完善细化相关伦理规范,加强审查和监管,以及相关伦理教育和宣传,更显迫切。只有正视人工智能带来的伦理挑战,并加强伦理治理,才能确保人工智能技术造福人类,而非成为威胁。(通讯员 宋怡欣)
meiaoji