切换到宽版
  • 661阅读
  • 0回复

[智能应用]人工智能的12个不为人知的秘密 [复制链接]

上一主题 下一主题
在线huozm32831

UID: 329002

精华: 1097
职务: 超级斑竹
级别: 玉清道君
 

发帖
106169
金币
2285
道行
19523
原创
29307
奖券
17275
斑龄
190
道券
10126
获奖
0
座驾
 设备
EOS—7D
 摄影级
专家级认证
在线时间: 20021(小时)
注册时间: 2007-11-29
最后登录: 2024-11-24
只看楼主 倒序阅读 使用道具 楼主  发表于: 2021-01-16
— 本帖被 兵马大元帅 执行加亮操作(2021-03-20) —
         随着人工智能技术在各行业的应用越来越广泛,IT领导者需要了解如何采用人工智能技术收集商业见解的秘密。

人类一直梦想着有一个无所不知、无所不能的精灵为自己提供帮助。如今需要感谢计算机科学家的不断探索和努力,将在人工智能领域找到这个答案,因为人工智能有可能做到任何人想要做的事情,至少在某些时候和某些地方是这样。

人工智能的创新能力是惊人的。采用像Siri、Alexa或Google Assistant这样的虚拟助理对于10到15年前的人们来说似乎是神奇的事物,他们可以通过语音向虚拟助理发布命令或寻求答案,而与上世纪90年代的语音识别工具不同,虚拟助理通常会提供正确的答案。

尽管人工智能有其神奇之处,但它们仍然依赖于计算机编程,这意味着其功能方面仍然受到了一些限制,但它们在处理一些重复性的日常工作方面表现更好,但归根结底,它们仍然只是通过计算函数并确定某个数字是大于还是小于阈值来做出决策的计算机。而在其提供巧妙的奥秘和复杂算法的背后,都是来自实现IF-THEN决策的晶体管。

那么对于人类来说有什么选择吗?随着人工智能技术在各行业应用越来越广泛,需要了解有关人工智能的一些不为人知的秘密。

1.从人工智能中发现的很多东西都是显而易见的

对于人工智能科学家来说,最困难的工作就是告知人们其所开发的人工智能技术发现了每个人都知道的常识。也许开发的人工智能应用程序识别了100亿张照片,发现天空的颜色是蓝色的。但是如果没有将夜空的照片放在其训练集中,其应用程序永远不会意识到夜晚的天空颜色是黑色。

但是人工智能如何才能避免得出显而易见的结论呢?数据中最强的信号对任何人来说都是显而易见的,而且对挖掘数字的计算机算法来说也是显而易见的。因此,人们需要了解的是,不要期望采用人工智能算法就能得到正确的结果。

2.利用人工智能细微差别的见解可能不值得

当然,当数据很精确时,良好的人工智能会识别微小的差异。只是有些细微的差别过于微妙,不值得追根究底。而人工智能程序可能一直执着于识别这些细微差别。问题是,有些信号显而易见,有些信号的收益可能很微小甚至没有。

3.神秘的计算机更具威胁性

虽然早期的研究人员希望人工智能算法的数学方法能够为组织最终决策带来更多的可信度,但是很多人并不相信其逻辑。如果说有什么不同的话,人工智能的复杂性和神秘性使得对答案不满意的人都会怀疑这个过程。人工智能技术越神秘、越复杂,人们就越有理由表示怀疑和愤怒。

4.人工智能主要是曲线拟合的问题

数百年来,科学家们致力根据所给定的离散数据点绘制曲线(曲线拟合)。许多机器学习算法正在完成这样的任务。它们收集了大量数据,希望通过它们绘制曲线。很多技术都是将问题分解成数千、数百万、甚至数十亿个小问题找到解决方法。有些人发现,人工智能的决策有时并不准确,他们会把注意力集中在这样一个事实上:没有深入的理论或哲学框架来为其给出的答案提供可信度,这只是对某些曲线和斜率的估算值。

5.收集数据需要大量的工作

数据科学的研究人员意识到,找到数据才是真正的工作。人工智能是数据科学的近亲,它也面临着同样的挑战,收集数据需要处理文件格式、缺少数据字段和字符代码等大量工作。

6. 需要大量的数据才能得出更深入的结论

有些答案很容易找到,但获得更深入、更复杂的结论往往需要越来越多的数据。有时需要收集的数据量会呈指数级增长。

7.被数据偏见所困扰

人们都了解其看到和感知的东西会受到一些限制,人工智能也不例外,并且显然会受到训练集的限制。如果数据中存在偏差,人工智能将会继承这些偏差。如果数据有漏洞,人工智能对外部世界的理解就会有漏洞。

8.人工智能是电力黑洞

人工智能的应用将会变得越来越复杂。只要研究人员愿意,就会不断创造出节点更多、层次更多、内部状态更复杂的模型。也许这种额外的复杂性足以使模型真正有用,也许下一轮可能会出现一些紧急的情感行为。但是也许需要运行大量GPU才能真正捕捉到效果,因此人工智能将会耗费更多的电力。

9.可解释的人工智能进展缓慢

人工智能研究人员一直花费大量的时间来尝试解释人工智能在做什么。通过深入研究数据,发现训练有素的人工智能模型严重依赖于来自数据集特定的一些参数。不过,可解释人工智能的结果通常并不令人信服,容易陷入“鸡生蛋,蛋生鸡”的悖论中,因此可解释的人工智能进展很缓慢。

10.努力做到公平是一个挑战

如果研究人员将身高排除在人工智能训练集之外,但是人工智能程序很有可能会找到一些其他的数据来标记身高不同的人,其数据也许是鞋子的尺寸,也许是臂长。人们曾经梦想能够让中立的人工智能做出一个公正的决定,会让世界变得更加公平,但有时现实并不公平,而人工智能算法也无法做得更好。

11.有时修复甚至更糟

强迫人工智能公平地解决实际问题吗?有些人坚持认为,人工智能一定会产生准确的结果,并重写算法以更改输出。但是人们开始怀疑,如果已经确定了想要的答案,那么为什么还要进行任何训练或数据分析呢?

12.人类是真正的问题所在

如果将1000万张图片进行分类,那么人工智能应用程序在大多数时候都能产生相当准确的结果。当然可能会出现问题和错误。一些小问题甚至可能反映出人工智能偏见的深层次问题,而这些问题可能需要撰写论文才能进行解释和分析。

人工智能并不是问题所在,它们只是按照人类的指令行事。人工智能只是人类的工具,人类希望通过人工智能技术获得优势并从中获利。但人工智能应用的结果取决于人类的目的,如果用于不当的目的,那么人工智能的应用将会带来不利影响。
1条评分金币+10
兵马大元帅 金币 +10 验证通过,感谢支持 2021-01-17
山庄提示: 道行不够,道券不够?---☆点此充值☆