闲聊ChatGPT、阿尔法狗与人工智能
小河沟,Feb-10-2023
首先,ChatGP被媒体热炒,它与元宇宙、云计算、区块链一样也是种科学骗局,人工智能的局限在于无法创造新的逻辑,人工智能无法二级纠错。
自动识别与纠正“错上加错的错误”就是二级纠错,最简单的二级纠错就是:正在队列装螺丝的生产线上有颗螺丝掉在地上,安螺丝机器会自动从地上捡起那颗螺丝,再把捡起来的那颗螺丝安在产品上。人工智能是线性队列,人工智能不可能做出这种二维数组矩阵计算,因为矩阵的乘法只满足结合律和分配律,不满足交换律,矩阵计算错了就没法自动纠错,这时就只能靠人工纠错。机器语言只能上螺丝,机器语言无法自己创造一个发现螺丝掉在地上,并捡起来上回去的逻辑。所以,我们这个世界上的自动化生产线本质上是没有自动纠错能力的,出了错就把产品当次品处理。这也是富士康iphone生产线上需要大量打螺丝的工人的原因,机器语言只能取代重复劳动,却永远无法实现二级纠错。
网上吹日本汽车发动机牛的视频很多,这些视频内容大同小异,无外乎中国工人把日本汽车发动机拆了,却装不回去,以此证明日本汽车发动机不觉明厉。其实,日本汽车发动机装配借用的中国古人木匠的榫卯工艺,需要特制的磨具,机床与工具才能装配在一起,没有特定的工具靠手工是装不上的,一句话,日本汽车发动机质量虽好,但没有那么玄乎。
有些汽车厂流水线机器人有点一级自动纠错能力,但有自动纠错能力的机器人本身的出错率相当高,有一级纠错能力的机器人维护成本也高。特斯拉、比亚迪电动汽车生产线能够打败传统燃油汽车生产线,是因为特斯拉、比亚迪完全抛弃日本汽车装配机器人的路子,走低压铸造整车,直接跳过机器人纠错的办法,所以特斯拉、比亚迪生产电动汽车有成本优势。日本人为了忽悠中国的知识分子脱离群众,用中国的小商品换日元,日本人犯了一个哲学上的错误,日本人很早就走上了发展机器人的道路,忽悠中国人人多没有好处。实际上,机器人永远只是一种人类生产劳动的工具,机器人永远不会代替人。
ChatGPT本质上是在讲一个哲学问题:我们的世界是由人来管理的,我们的世界不是由机器语言来管理的,人工智能永远无法取代熟练工人。
ChatGPT与围棋软件不一样,围棋只有19x19个格子,软件可以通过快速计算以对手不知道的逻辑击败人类,“阿尔法狗”完全可能是一个经过训练的职业九段用计算机在幕后与李世石、柯洁下棋,“阿尔法狗”击败人类棋手本质上只是一种魔术,而非科学。谷歌从没有公开过“阿尔法狗”的源代码,围棋软件的软肋是其编程思想没有公开而已,如果程序员公开了围棋软件的设计思想,人类非常容易击败“阿尔法狗”等围棋软件。
如果“阿尔法狗”的智商真的超过了人类,谷歌程序员为什么不在网上的on-line赌场赌博发财?谷歌从没有在数学上证明“阿尔法狗”击败人类围棋手是个必然事件,所以,“阿尔法狗”并没有在围棋上击败人类,因为“阿尔法狗”只是在现有的逻辑的基础上下棋,而任何逻辑都是有缺陷的,“阿尔法狗”自己无法创造新的逻辑,因为“阿尔法狗”的源代码没有公开,一旦“阿尔法狗”的源代码公开了,业余棋手也可以轻松击败“阿尔法狗”。
一句话,不能用“阿尔法狗”来证明ChatGPT的智商高。图灵讲过,人工智能只能在现有的逻辑下进行,人工智能不能创造新的逻辑,即ChatGPT只能重复现有的逻辑,不会变通,不会二级纠错。
所谓ChatGPT的自动学习能力强,利用网友的问答来创造提高答案的正确率的说法,其实是无稽之谈。ChatGPT利用现在的芯片速度与存储量的优势,可以比谷歌搜索做得更容易混淆视听,魔术能力更强是可能的。所有的软件本质上都是没有思想的16进制数据排列而已,软件是没有判断是非的能力的,ChatGPT自己没有能力判断答案正确与否,网友的免费答案错误的多,正确的少,ChatGPT没有能力从众多错误答案中甄别出正确答案,即ChatGPT是没有能力自己不断获得正反馈的能力的,所谓机器语言通过学习变得更聪明的说法只能是天方夜谭。
机器语言一般回答不了这样的逻辑问题,“为什么吃葡萄不吐葡萄皮,不吃葡萄倒吐葡萄皮?”机器语言分辨不了真实与玩笑,一般人之间问这个问题大都可能是在开玩笑,一般人都不会认真回答这个问题或玩笑以对,机器语言就当真了,这就是人工智能永远无法二级纠错的原因之一。
从数据结构的角度,ChatGPT不比视窗多线程操作系统更先进,ChatGPT的所谓神经网络结构本质上还是线性链表,最多加了一些非线性链表插入删除功能,ChatGPT在数据结构上没有大的突破,ChatGPT本质上只是一个设计新颖的工具软件,与历史上的C语言、Oracle数据库、AUTOCAD、Photoshop等工具软件一样,不值得普通人浪费大量时间学习。
要让ChatGPT的股票涨上去,只能是雇人在后台甄别网友的答案,把一些网友关心的问题总结一下,或者直接把《十万个为什么?》、《大英百科全书》、《维基百科》等放在网上,骗投资人买股票而已。美国《时代周刊》的报导称,OpenAI公司雇佣肯尼亚员工,9小时能标注20万个单词。从这一角度,ChatGPT也是一种骗人买股票的魔术行为。找人在后台冒充AI是成本最低,效率最高,最容易骗人的办法。
ChatGPT如果真有那么神,ChatGPT应该去炒股票,而不是靠会员制上市,如果ChatGPT真的先进,ChatGPT不需要去骗穷人的钱,ChatGPT如果没有撒谎炒股早就发了,不需要一天到晚花巨资在网上炒作骗20美刀/月那点小钱,直接操纵纳斯达克一下子就变成全球首富了。
AI提示词工程师(Prompt Engineer)现在在美国很好找工作,找人提问,程序员在背后冒充人工智能回答,把问题答案存储起来,利用关键词搜寻组合问题答案,关键是使用媒体给全人类反复洗脑,ChatGPT 是真的,人类尽管从来没有用过ChatGPT,也会相信ChatGPT的智商超过人类了,即只要用媒体骗中国人崇拜美国程序员,就可以骗过全人类了,这就是ChatGPT的技术机密。
所以,ChatGPT没有技术上的实质性突破,ChatGPT全靠程序员在背后冒充人工智能,ChatGPT本质上就是一套程序写作、文字与图像处理工具,而且还相当不成熟,不值得普通人花大时间去追捧。ChatGPT的盈利模式是:OpenAI收会员费,程序员伪装成人工智能在背后二级纠错,帮人写程序、短文、答疑,薄利多销,关键是用媒体大规模给全人类催眠,不学ChatGPT以后连工作都找不到。
OpenAI的名言:AI开发靠信仰,越信性能越好,即ChatGPT主要是靠媒体硬吹,愚弄全世界获得成功的。
ChatGPT走的是上世纪微软推出视窗1.0、2.0、3.0、95、98、XP、NT等的路子,用媒体大规模介绍ChatGPT的使用方法,ChatGPT好用得很,你是不会用而已,用媒体把股票价格推上去。吸食鸦片也可以上瘾,用媒体对全世界催眠,让全人类都迷迷糊糊地觉得,不懂ChatGPT就会被时代抛弃。历史会讲,现在不断推出的炫酷的ChatGPT的各种版本也会象历史上的视窗系统的各种版本那样不可避免地走进历史垃圾堆。即ChatGPT是全靠媒体给全人类洗脑,浪费人类时间成功的,ChatGPT是场媒体愚弄全人类的科学骗局。
ChatGPT本质上是在讲一个哲学问题:我们的世界是由人来管理的,我们的世界不是由机器语言来管理的。
外国人为什么喜欢干涉中国内政?因为外国人离开了大量需要二级纠错能力生产的劳动密集型产品,外国人的生活水平会下降,印度缺乏能源与自然资源,外国人哄抬原材料与能源价格,很容易卡印度的脖子,印度永远无法象中国那样大量生产需要二级纠错的劳动密集型产品。只有中国才能大规模生产iphone、电动汽车,因为全世界只有中国才拥有大量熟练劳动力、煤炭、钢铁等人力物力,所以,中国人不要妄自菲薄,小看自己的优势,人口众多,劳动力丰富,是中国最大的优势。
因为人工智能无法二级纠错,所以,人工智能永远不可能取代需要二级纠错的劳动密集型产品的产业工人,重复劳动无法生产的劳动密集型产品永远需要大量劳动力,熟练工人永远不可能被人工智能淘汰。
小河沟,Feb-10-2023
首先,ChatGP被媒体热炒,它与元宇宙、云计算、区块链一样也是种科学骗局,人工智能的局限在于无法创造新的逻辑,人工智能无法二级纠错。
自动识别与纠正“错上加错的错误”就是二级纠错,最简单的二级纠错就是:正在队列装螺丝的生产线上有颗螺丝掉在地上,安螺丝机器会自动从地上捡起那颗螺丝,再把捡起来的那颗螺丝安在产品上。人工智能是线性队列,人工智能不可能做出这种二维数组矩阵计算,因为矩阵的乘法只满足结合律和分配律,不满足交换律,矩阵计算错了就没法自动纠错,这时就只能靠人工纠错。机器语言只能上螺丝,机器语言无法自己创造一个发现螺丝掉在地上,并捡起来上回去的逻辑。所以,我们这个世界上的自动化生产线本质上是没有自动纠错能力的,出了错就把产品当次品处理。这也是富士康iphone生产线上需要大量打螺丝的工人的原因,机器语言只能取代重复劳动,却永远无法实现二级纠错。
网上吹日本汽车发动机牛的视频很多,这些视频内容大同小异,无外乎中国工人把日本汽车发动机拆了,却装不回去,以此证明日本汽车发动机不觉明厉。其实,日本汽车发动机装配借用的中国古人木匠的榫卯工艺,需要特制的磨具,机床与工具才能装配在一起,没有特定的工具靠手工是装不上的,一句话,日本汽车发动机质量虽好,但没有那么玄乎。
有些汽车厂流水线机器人有点一级自动纠错能力,但有自动纠错能力的机器人本身的出错率相当高,有一级纠错能力的机器人维护成本也高。特斯拉、比亚迪电动汽车生产线能够打败传统燃油汽车生产线,是因为特斯拉、比亚迪完全抛弃日本汽车装配机器人的路子,走低压铸造整车,直接跳过机器人纠错的办法,所以特斯拉、比亚迪生产电动汽车有成本优势。日本人为了忽悠中国的知识分子脱离群众,用中国的小商品换日元,日本人犯了一个哲学上的错误,日本人很早就走上了发展机器人的道路,忽悠中国人人多没有好处。实际上,机器人永远只是一种人类生产劳动的工具,机器人永远不会代替人。
ChatGPT本质上是在讲一个哲学问题:我们的世界是由人来管理的,我们的世界不是由机器语言来管理的,人工智能永远无法取代熟练工人。
ChatGPT与围棋软件不一样,围棋只有19x19个格子,软件可以通过快速计算以对手不知道的逻辑击败人类,“阿尔法狗”完全可能是一个经过训练的职业九段用计算机在幕后与李世石、柯洁下棋,“阿尔法狗”击败人类棋手本质上只是一种魔术,而非科学。谷歌从没有公开过“阿尔法狗”的源代码,围棋软件的软肋是其编程思想没有公开而已,如果程序员公开了围棋软件的设计思想,人类非常容易击败“阿尔法狗”等围棋软件。
如果“阿尔法狗”的智商真的超过了人类,谷歌程序员为什么不在网上的on-line赌场赌博发财?谷歌从没有在数学上证明“阿尔法狗”击败人类围棋手是个必然事件,所以,“阿尔法狗”并没有在围棋上击败人类,因为“阿尔法狗”只是在现有的逻辑的基础上下棋,而任何逻辑都是有缺陷的,“阿尔法狗”自己无法创造新的逻辑,因为“阿尔法狗”的源代码没有公开,一旦“阿尔法狗”的源代码公开了,业余棋手也可以轻松击败“阿尔法狗”。
一句话,不能用“阿尔法狗”来证明ChatGPT的智商高。图灵讲过,人工智能只能在现有的逻辑下进行,人工智能不能创造新的逻辑,即ChatGPT只能重复现有的逻辑,不会变通,不会二级纠错。
所谓ChatGPT的自动学习能力强,利用网友的问答来创造提高答案的正确率的说法,其实是无稽之谈。ChatGPT利用现在的芯片速度与存储量的优势,可以比谷歌搜索做得更容易混淆视听,魔术能力更强是可能的。所有的软件本质上都是没有思想的16进制数据排列而已,软件是没有判断是非的能力的,ChatGPT自己没有能力判断答案正确与否,网友的免费答案错误的多,正确的少,ChatGPT没有能力从众多错误答案中甄别出正确答案,即ChatGPT是没有能力自己不断获得正反馈的能力的,所谓机器语言通过学习变得更聪明的说法只能是天方夜谭。
机器语言一般回答不了这样的逻辑问题,“为什么吃葡萄不吐葡萄皮,不吃葡萄倒吐葡萄皮?”机器语言分辨不了真实与玩笑,一般人之间问这个问题大都可能是在开玩笑,一般人都不会认真回答这个问题或玩笑以对,机器语言就当真了,这就是人工智能永远无法二级纠错的原因之一。
从数据结构的角度,ChatGPT不比视窗多线程操作系统更先进,ChatGPT的所谓神经网络结构本质上还是线性链表,最多加了一些非线性链表插入删除功能,ChatGPT在数据结构上没有大的突破,ChatGPT本质上只是一个设计新颖的工具软件,与历史上的C语言、Oracle数据库、AUTOCAD、Photoshop等工具软件一样,不值得普通人浪费大量时间学习。
要让ChatGPT的股票涨上去,只能是雇人在后台甄别网友的答案,把一些网友关心的问题总结一下,或者直接把《十万个为什么?》、《大英百科全书》、《维基百科》等放在网上,骗投资人买股票而已。美国《时代周刊》的报导称,OpenAI公司雇佣肯尼亚员工,9小时能标注20万个单词。从这一角度,ChatGPT也是一种骗人买股票的魔术行为。找人在后台冒充AI是成本最低,效率最高,最容易骗人的办法。
ChatGPT如果真有那么神,ChatGPT应该去炒股票,而不是靠会员制上市,如果ChatGPT真的先进,ChatGPT不需要去骗穷人的钱,ChatGPT如果没有撒谎炒股早就发了,不需要一天到晚花巨资在网上炒作骗20美刀/月那点小钱,直接操纵纳斯达克一下子就变成全球首富了。
AI提示词工程师(Prompt Engineer)现在在美国很好找工作,找人提问,程序员在背后冒充人工智能回答,把问题答案存储起来,利用关键词搜寻组合问题答案,关键是使用媒体给全人类反复洗脑,ChatGPT 是真的,人类尽管从来没有用过ChatGPT,也会相信ChatGPT的智商超过人类了,即只要用媒体骗中国人崇拜美国程序员,就可以骗过全人类了,这就是ChatGPT的技术机密。
所以,ChatGPT没有技术上的实质性突破,ChatGPT全靠程序员在背后冒充人工智能,ChatGPT本质上就是一套程序写作、文字与图像处理工具,而且还相当不成熟,不值得普通人花大时间去追捧。ChatGPT的盈利模式是:OpenAI收会员费,程序员伪装成人工智能在背后二级纠错,帮人写程序、短文、答疑,薄利多销,关键是用媒体大规模给全人类催眠,不学ChatGPT以后连工作都找不到。
OpenAI的名言:AI开发靠信仰,越信性能越好,即ChatGPT主要是靠媒体硬吹,愚弄全世界获得成功的。
ChatGPT走的是上世纪微软推出视窗1.0、2.0、3.0、95、98、XP、NT等的路子,用媒体大规模介绍ChatGPT的使用方法,ChatGPT好用得很,你是不会用而已,用媒体把股票价格推上去。吸食鸦片也可以上瘾,用媒体对全世界催眠,让全人类都迷迷糊糊地觉得,不懂ChatGPT就会被时代抛弃。历史会讲,现在不断推出的炫酷的ChatGPT的各种版本也会象历史上的视窗系统的各种版本那样不可避免地走进历史垃圾堆。即ChatGPT是全靠媒体给全人类洗脑,浪费人类时间成功的,ChatGPT是场媒体愚弄全人类的科学骗局。
ChatGPT本质上是在讲一个哲学问题:我们的世界是由人来管理的,我们的世界不是由机器语言来管理的。
外国人为什么喜欢干涉中国内政?因为外国人离开了大量需要二级纠错能力生产的劳动密集型产品,外国人的生活水平会下降,印度缺乏能源与自然资源,外国人哄抬原材料与能源价格,很容易卡印度的脖子,印度永远无法象中国那样大量生产需要二级纠错的劳动密集型产品。只有中国才能大规模生产iphone、电动汽车,因为全世界只有中国才拥有大量熟练劳动力、煤炭、钢铁等人力物力,所以,中国人不要妄自菲薄,小看自己的优势,人口众多,劳动力丰富,是中国最大的优势。
因为人工智能无法二级纠错,所以,人工智能永远不可能取代需要二级纠错的劳动密集型产品的产业工人,重复劳动无法生产的劳动密集型产品永远需要大量劳动力,熟练工人永远不可能被人工智能淘汰。