切换到宽版
  • 172阅读
  • 1回复

[智能应用]如何让人工智能实现认知正义 [复制链接]

上一主题 下一主题
在线huozm32831

UID: 329002

精华: 1097
职务: 超级斑竹
级别: 玉清道君
 

发帖
106126
金币
1599
道行
19523
原创
29307
奖券
17275
斑龄
190
道券
10126
获奖
0
座驾
 设备
EOS—7D
 摄影级
专家级认证
在线时间: 20013(小时)
注册时间: 2007-11-29
最后登录: 2024-11-19
  近几年,人工智能在许多行业都有应用,成为人类的“好帮手”。但在这一过程中,也出现了各种各样的问题。其中,人工智能系统基于不良的数据来源和有缺陷的算法设计生成错误的“知识”,且没有对所输出内容进行价值判断的能力,无法承担相应认知责任,导致系统性的认知偏差,是一个比较突出的问题。

  从科技伦理角度分析,这违背了认知正义的原则。所谓认知正义,是指在知识生成、传播和获取过程中,确保所有个体和群体的声音都能被公平地听取和理解,并且有平等的机会被转化为人类的公共知识。

  过去,知识生成主要依赖人类个体的感知、记忆、推理和证词。然而,随着人工智能的超速迭代,尤其是会话式人工智能的广泛应用,传统的知识生成和传播方式正迎来重大转变。今天的人工智能不仅善于搜集信息和执行任务,更是一项能够生成和传播知识的“认知技术”,被用来处理认知内容(如命题、模型、数据)并执行认知操作(如统计分析、模式识别、预测、推理和模拟)。基于数据和算法的“机器知识”挑战了过去基于经验和专业判断的人类知识,导致认知“碎片化”,破坏了传统人类知识系统的认知正义。

  如今,生成式人工智能已经开始全面嵌入到所有可能对认知、决策进行技术性替代的场景和社会过程之中。面对人工智能在知识生成中对认知正义的挑战,如何让人工智能更智能?如何让其成为提升认知的帮手,确保科技向善?

  笔者认为,需从提升数据质量、改进算法设计、优化人机协同和加强伦理治理等维度着手。

  负责任的算法设计是实现认知正义的核心架构。人工智能作为一种强大的认知技术,通过数据挖掘和统计分析来识别信息的模式和趋势,参与人类公共知识的生成。由于算法主要关注在训练数据中频繁出现的信息模式,而不够普遍或统计上不够强大的数据往往会被忽视和排除,从而无法得到算法的充分理解和适当响应。依赖于统计频率的算法设计构成了一种特定的“认知盲从”,进而导致部分群体的声音被系统性边缘化。这种设计上的缺陷不仅限制了算法的认知能力,也加剧了社会中的不平等和认知压迫,破坏认知正义。“盲从”行为背后的根源,是算法的设计和训练过程缺乏对不同群体文化背景的理解。因此,在我们常谈及的算法透明性和可解释性之外,符合认知正义要求的算法设计还应兼顾涉及不同社群的认知多样性。

  有质量的数据供给是实现认知正义的基础设施。造成人工智能破坏认知正义的另一个重要诱因是数据质量。大数据是智能技术的认知基础和决策基础,可以更清晰直观地呈现人类社会生活各方面的特征和趋势,但与传统人类公共知识不同,数据不为人们普遍共享。具体来说,哪些数据可以被收集起来并用于分析,这些数据又将如何被分类提取,它们最终服务于谁,这些问题都变得模糊不清,导致数据质量参差不齐。算法的训练数据往往来源于互联网的大型数据库和社区,而这些数据很可能包含偏见和歧视。人工智能的知识生成,需确保数据的来源可靠、内容多样,对数据进行去偏处理,还需对数据保持持续监测和更新,以应对社会文化变化带来的新问题。有质量的数据供给,才能使人工智能系统在多元文化和复杂社会结构中提供更精准的知识和决策支持。

  大范围的人机协作是实现认知正义的有效手段。从脑机接口中的信号转译,到智能医疗决策、AI for Science等人机联合行动,不同层面的人机协作都涉及人类知识与机器知识的传递、解释、融合等认知过程。鉴于人机各自典型的认知特征,大范围、合理化的“人机认知劳动分工”将有效避免更多的人机认知偏差。比如,在科学研究中可以如此分工:人类设定目标、提出假设和解释结果,并负责提供创造性思维、临场决策、伦理判断以及对非结构化问题的直觉理解;而人工智能处理大量结构化数据、进行模式识别和预测分析,提供未被注意的模式和关联。在这种协作中,人工智能更多地成为启发新想法的“伙伴”,而非生成错误知识的“机器”。

  高水平的伦理治理是实现认知正义的制度支撑。认知正义要求多元的知识生成、平等的知识获取、无偏的知识传播和负责的知识使用,这些都需要高水平的人工智能伦理治理。于企业而言,应在算法设计中考虑不同社会群体的需求和视角,对算法进行持续风险监测和价值评估;还应探索人工智能伦理众包模式,鼓励不同背景的研究者和用户参与到人工智能伦理风险的研判中,及时化解伦理风险。于政府而言,应积极鼓励私人数据向公共数据转化,加快公共数据面向全社会开放共享,扩展数据多样性、强化数据可靠性;还应寻求应对人工智能潜在伦理风险的社会解决方案,建立涵盖前瞻性预见、实时性评估和系统性调整的敏捷治理机制。
山庄提示: 道行不够,道券不够?---☆点此充值☆
 
  




    
在线jjybzxw

UID: 551814


发帖
102147
金币
1087220
道行
1951
原创
2155
奖券
2124
斑龄
28
道券
567
获奖
0
座驾
设备
摄影级
在线时间: 24348(小时)
注册时间: 2008-10-01
最后登录: 2024-11-20
只看该作者 沙发  发表于: 09-05
  在人工智能的发展和应用过程中,确实出现了许多伦理和责任问题。这些问题如果不加以妥善处理,可能会对社会秩序和公平性产生负面影响。您提到的这些问题,涉及到了算法设计、数据质量、人机协作以及伦理治理等多个方面。以下是对您提出的问题的进一步分析和建议:

  1. 算法设计的伦理问题:人工智能算法的偏见和不透明性,可能导致对某些群体的不公平对待。为了解决这个问题,我们需要开发更加透明、可解释的算法,并确保算法的开发过程考虑到不同群体的需求和观点。

  2. 数据质量的问题:大数据的来源和质量对于人工智能系统的性能至关重要。为了确保数据质量,需要采取措施来消除偏见,并确保数据来源的多样性和可靠性。

  3. 人机协作的问题:人机协作可以充分利用人工智能的优势,同时保持人类在关键决策中的主导地位。这种协作模式可以减少人工智能的偏见,并提高决策的质量和公平性。

  4. 伦理治理的问题:政府和企业都需要采取措施来确保人工智能的应用符合伦理标准。这包括建立有效的监管机制,以及对人工智能系统进行持续的风险评估和价值评估。

  总之,人工智能的发展和应用需要我们共同努力,确保其符合伦理标准,并能够为社会带来积极的影响。这需要我们不仅在技术上取得进步,还需要在伦理和社会治理方面进行深入的研究和探讨。

如何不发帖就快速得到金币道行
 
快速回复
限120 字节
认真回复加分,灌水扣分~
 
上一个 下一个