闲聊ChatGPT、阿尔法狗与人工智能
小河沟,Feb-10-2023
首先,ChatGP被媒体热炒,它与元宇宙、云计算、区块链一样也是种科学骗局,人工智能的局限在于无法创造新的逻辑,人工智能无法二级纠错。
自动识别与纠正“错上加错的错误”就是二级纠错,最简单的二级纠错就是:正在队列装螺丝的生产线上有颗螺丝掉在地上,安螺丝机器会自动从地上捡起那颗螺丝,再把捡起来的那颗螺丝安在产品上。人工智能是线性队列,人工智能不可能做出这种二维数组矩阵计算,因为矩阵的乘法只满足结合律和分配律,不满足交换律,矩阵计算错了就没法自动纠错,这时就只能靠人工纠错。机器语言只能上螺丝,机器语言无法自己创造一个发现螺丝掉在地上,并捡起来上回去的逻辑。所以,我们这个世界上的自动化生产线本质上是没有自动纠错能力的,出了错就把产品当次品处理。这也是富士康iphone生产线上需要大量打螺丝的工人的原因,机器语言永远无法实现二级纠错。
有些汽车厂流水线机器人有点一级自动纠错能力,但有自动纠错能力的机器人本身的出错率相当高,有一级纠错能力的机器人维护成本也高。特斯拉、比亚迪电动汽车生产线能够打败传统燃油汽车生产线,是因为特斯拉、比亚迪完全抛弃日本汽车装配机器人的路子,走低压铸造整车,直接跳过机器人纠错的办法,所以特斯拉、比亚迪生产电动汽车有成本优势。日本人为了忽悠中国的知识分子脱离群众,用中国的小商品换日元,日本人犯了一个哲学上的错误,日本人很早就走上了发展机器人的道路,忽悠中国人人多没有好处。实际上,机器人永远只是一种人类生产劳动的工具,机器人永远不会代替人。
ChatGPT本质上是在讲一个哲学问题:我们的世界是由人来管理的,我们的世界不是由机器语言来管理的,人工智能永远无法取代熟练工人。
ChatGPT与围棋软件不一样,围棋只有19x19个格子,软件可以通过快速计算以对手不知道的逻辑击败人类,“阿尔法狗”完全可能是一个经过训练的职业九段用计算机在幕后与李世石、柯洁下棋,“阿尔法狗”击败人类棋手本质上只是一种魔术,而非科学。谷歌从没有公开过“阿尔法狗”的源代码,围棋软件的软肋是其编程思想没有公开而已,如果程序员公开了围棋软件的设计思想,人类非常容易击败“阿尔法狗”等围棋软件。
如果“阿尔法狗”的智商真的超过了人类,谷歌程序员为什么不在网上的on-line赌场赌博发财?谷歌从没有在数学上证明“阿尔法狗”击败人类围棋手是个必然事件,所以,“阿尔法狗”并没有在围棋上击败人类,因为“阿尔法狗”只是在现有的逻辑的基础上下棋,而任何逻辑都是有缺陷的,“阿尔法狗”自己无法创造新的逻辑,因为“阿尔法狗”的源代码没有公开,一旦“阿尔法狗”的源代码公开了,业余棋手也可以轻松击败“阿尔法狗”。
一句话,不能用“阿尔法狗”来证明ChatGPT的智商高。图灵讲过,人工智能只能在现有的逻辑下进行,人工智能不能创造新的逻辑,即ChatGPT只能重复现有的逻辑,不会变通,不会二级纠错。
所谓ChatGPT的自动学习能力强,利用网友的问答来创造提高答案的正确率的说法,其实是无稽之谈。ChatGPT利用现在的芯片速度与存储量的优势,可以比谷歌搜索做得更容易混淆视听,魔术能力更强是可能的。所有的软件本质上都是没有思想的16进制数据排列而已,软件是没有判断是非的能力的,ChatGPT自己没有能力判断答案正确与否,网友的免费答案错误的多,正确的少,ChatGPT没有能力从众多错误答案中甄别出正确答案,即ChatGPT是没有能力自己不断获得正反馈的能力的,所谓机器语言通过学习变得更聪明的说法只能是天方夜谭。
要让ChatGPT的股票涨上去,只能是雇人在后台甄别网友的答案,把一些网友关心的问题总结一下,或者直接把《十万个为什么?》、《大英百科全书》、《维基百科》等放在网上,骗投资人买股票而已。美国《时代周刊》的报导称,OpenAI公司雇佣肯尼亚员工,9小时能标注20万个单词。从这一角度,ChatGPT也是一种骗人买股票的魔术行为。找人在后台冒充AI是成本最低,效率最高,最容易骗人的办法。
ChatGPT如果真有那么神,ChatGPT应该去炒股票,而不是靠会员制上市,如果ChatGPT真的先进,ChatGPT不需要去骗穷人的钱,ChatGPT如果没有撒谎炒股早就发了,不需要一天到晚花巨资在网上炒作骗20美刀/月那点小钱,直接操纵纳斯达克一下子就变成全球首富了。
中国人不要妄自菲薄,小看自己的优势,人口众多,劳动力丰富,是中国最大的优势。
因为人工智能无法二级纠错,所以,人工智能永远不可能取代需要二级纠错的劳动密集型产品的产业工人,劳动密集型产品永远需要大量劳动力,熟练工人永远不可能被人工智能淘汰。
ChatGPT本质上是在讲一个哲学问题:我们的世界是由人来管理的,我们的世界不是由机器语言来管理的。
小河沟,Feb-10-2023
首先,ChatGP被媒体热炒,它与元宇宙、云计算、区块链一样也是种科学骗局,人工智能的局限在于无法创造新的逻辑,人工智能无法二级纠错。
自动识别与纠正“错上加错的错误”就是二级纠错,最简单的二级纠错就是:正在队列装螺丝的生产线上有颗螺丝掉在地上,安螺丝机器会自动从地上捡起那颗螺丝,再把捡起来的那颗螺丝安在产品上。人工智能是线性队列,人工智能不可能做出这种二维数组矩阵计算,因为矩阵的乘法只满足结合律和分配律,不满足交换律,矩阵计算错了就没法自动纠错,这时就只能靠人工纠错。机器语言只能上螺丝,机器语言无法自己创造一个发现螺丝掉在地上,并捡起来上回去的逻辑。所以,我们这个世界上的自动化生产线本质上是没有自动纠错能力的,出了错就把产品当次品处理。这也是富士康iphone生产线上需要大量打螺丝的工人的原因,机器语言永远无法实现二级纠错。
有些汽车厂流水线机器人有点一级自动纠错能力,但有自动纠错能力的机器人本身的出错率相当高,有一级纠错能力的机器人维护成本也高。特斯拉、比亚迪电动汽车生产线能够打败传统燃油汽车生产线,是因为特斯拉、比亚迪完全抛弃日本汽车装配机器人的路子,走低压铸造整车,直接跳过机器人纠错的办法,所以特斯拉、比亚迪生产电动汽车有成本优势。日本人为了忽悠中国的知识分子脱离群众,用中国的小商品换日元,日本人犯了一个哲学上的错误,日本人很早就走上了发展机器人的道路,忽悠中国人人多没有好处。实际上,机器人永远只是一种人类生产劳动的工具,机器人永远不会代替人。
ChatGPT本质上是在讲一个哲学问题:我们的世界是由人来管理的,我们的世界不是由机器语言来管理的,人工智能永远无法取代熟练工人。
ChatGPT与围棋软件不一样,围棋只有19x19个格子,软件可以通过快速计算以对手不知道的逻辑击败人类,“阿尔法狗”完全可能是一个经过训练的职业九段用计算机在幕后与李世石、柯洁下棋,“阿尔法狗”击败人类棋手本质上只是一种魔术,而非科学。谷歌从没有公开过“阿尔法狗”的源代码,围棋软件的软肋是其编程思想没有公开而已,如果程序员公开了围棋软件的设计思想,人类非常容易击败“阿尔法狗”等围棋软件。
如果“阿尔法狗”的智商真的超过了人类,谷歌程序员为什么不在网上的on-line赌场赌博发财?谷歌从没有在数学上证明“阿尔法狗”击败人类围棋手是个必然事件,所以,“阿尔法狗”并没有在围棋上击败人类,因为“阿尔法狗”只是在现有的逻辑的基础上下棋,而任何逻辑都是有缺陷的,“阿尔法狗”自己无法创造新的逻辑,因为“阿尔法狗”的源代码没有公开,一旦“阿尔法狗”的源代码公开了,业余棋手也可以轻松击败“阿尔法狗”。
一句话,不能用“阿尔法狗”来证明ChatGPT的智商高。图灵讲过,人工智能只能在现有的逻辑下进行,人工智能不能创造新的逻辑,即ChatGPT只能重复现有的逻辑,不会变通,不会二级纠错。
所谓ChatGPT的自动学习能力强,利用网友的问答来创造提高答案的正确率的说法,其实是无稽之谈。ChatGPT利用现在的芯片速度与存储量的优势,可以比谷歌搜索做得更容易混淆视听,魔术能力更强是可能的。所有的软件本质上都是没有思想的16进制数据排列而已,软件是没有判断是非的能力的,ChatGPT自己没有能力判断答案正确与否,网友的免费答案错误的多,正确的少,ChatGPT没有能力从众多错误答案中甄别出正确答案,即ChatGPT是没有能力自己不断获得正反馈的能力的,所谓机器语言通过学习变得更聪明的说法只能是天方夜谭。
要让ChatGPT的股票涨上去,只能是雇人在后台甄别网友的答案,把一些网友关心的问题总结一下,或者直接把《十万个为什么?》、《大英百科全书》、《维基百科》等放在网上,骗投资人买股票而已。美国《时代周刊》的报导称,OpenAI公司雇佣肯尼亚员工,9小时能标注20万个单词。从这一角度,ChatGPT也是一种骗人买股票的魔术行为。找人在后台冒充AI是成本最低,效率最高,最容易骗人的办法。
ChatGPT如果真有那么神,ChatGPT应该去炒股票,而不是靠会员制上市,如果ChatGPT真的先进,ChatGPT不需要去骗穷人的钱,ChatGPT如果没有撒谎炒股早就发了,不需要一天到晚花巨资在网上炒作骗20美刀/月那点小钱,直接操纵纳斯达克一下子就变成全球首富了。
中国人不要妄自菲薄,小看自己的优势,人口众多,劳动力丰富,是中国最大的优势。
因为人工智能无法二级纠错,所以,人工智能永远不可能取代需要二级纠错的劳动密集型产品的产业工人,劳动密集型产品永远需要大量劳动力,熟练工人永远不可能被人工智能淘汰。
ChatGPT本质上是在讲一个哲学问题:我们的世界是由人来管理的,我们的世界不是由机器语言来管理的。