上一讲,我们了解了ChatGPT工作的原理,这一讲,我们来看看它所存在的问题。
我们会看到,ChatGPT回答问题、写文章,有的时候很靠谱,有的时候又像在胡说八道,那么这些问题能不能解决呢?
我先说结论:有些问题是可以通过改进解决的,有些则是ChatGPT固有的问题,甚至是今天机器学习方法固有的问题,要解决是很难的。
接下来我们分别阐述一下ChatGPT目前能够改进的问题如何解决,再聊聊无法解决的有哪些故有问题以及在人工干预时会面临哪些难题?
- 改进能够解决的问题:
首先,有些错误是由于信息量不够造成的。 随着时间推移,人类解决问题的能力会增加,互联网上的优质信息也会越来越多。 这意味着将来ChatGPT能够避免一部分错误,因为有更多的信息可以供其学习和参考。
另外,ChatGPT目前创作的作文段落可能有些乏味、不生动,但这并非不可解决。 随着语言模型技术的进步,未来ChatGPT的写作质量可能会大幅提高。
实事求是地讲,今天ChatGPT产生的段落,和十年前Google生产的段落相比,通顺程度已经好了很多。打个比方,十年前生成的段落相当于初中生的作文,今天有点像初三或者高一学生的水平了。
- 无法解决的固有问题:
ChatGPT存在一些固有的问题,即使模型规模增加或使用更深的语言知识也难以彻底解决。
就比如垃圾输入,垃圾输出: 如果ChatGPT接收到的输入数据质量差,带有大量噪音或者虚假信息,它的回答也会是错误的或者没有价值的。 在信息过载的时代,真实信息和虚假信息的辨别变得更加困难,ChatGPT本身无法区分垃圾和有用信息,只是简单地根据输入的数据进行预测。
从原理上讲,今天几乎所有的人工智能产品都是复读机。先要有各种知识和信息,ChatGPT才能工作。你给它提供高质量的数据,它就会产生一个高质量的语言模型,然后给出高质量的答案,写出高质量的文章。相反,你用垃圾数据训练它,它就输出垃圾。
正反馈导致歧途: ChatGPT的学习依赖于用户反馈,如果用户不断给予它错误的正反馈,它会产生错误或有偏见的回答。 例如,如果ChatGPT被误导,学习了很多不靠谱的信息,而ChatGPT学习了那些内容后,会将不靠谱的表现放大。这就是机器学习中很有名的那句话:垃圾输入,垃圾输出。
- 人工干预的难题:
虽然人工干预可以删除一些带有仇恨等不当的内容,但ChatGPT模型非常复杂,很难直接对其参数进行人工调整。 ChatGPT是一个庞大的语言模型,其中的参数之间的关系很复杂,不容易人为地理解和调整。
此外,人工干预也带来了另一个问题,就是主观的好恶会影响到模型的结果,可能导致更大的不公平。 如果在干预过程中加入了主观判断,可能会使ChatGPT的输出结果带有明显的主观倾向,这样会影响到其公正性和中立性。
在此之前,推特的人工干预就造成了很坏的影响。在2020年美国总统大选期间,推特根据自己的好恶,封掉了它不喜欢的特朗普的账号。这明显是在滥用权力。随后,马斯克认定推特的做法违反了言论自由的原则,收购了推特并且赶走了全部的管理层。在完全控制了推特之后,马斯克来了一个180度的大转弯,一方面恢复了特朗普的账号,另一方面封掉很多媒体的账号。今天的ChatGPT已经是一家平台公司了,如果里面的人随意根据自己的好恶选择训练数据,控制结果。这个危害可能比操控推特更大。
如果你是ChatGPT的粉丝,听完这一讲可能觉得我在泼凉水。其实我们不是针对这款软件,而是要指出当前这种基于机器学习的智能系统普遍存在的问题,提醒你注意。
综上所述,ChatGPT存在一些可以通过改进解决的问题,比如提供更多高质量的信息和文本,不过这需要时间。 但是,垃圾输入、垃圾输出和正反馈问题是今天机器学习智能系统的固有难题,难以完全解决。 因此,在使用ChatGPT等智能系统时,我们需要谨慎对待数据的质量和内容,并认识到这些系统的局限性。
总结:
1、ChatGPT的缺陷有些是可以改进解决的,有些则是ChatGPT固有的问题,甚至是今天机器学习方法固有的问题,要解决是很难的。
2、语言模型进化到今天,虽然进步了很多,但依然是一个利用已有的信息预测其他信息的模型,这个性质没有改变。
3、通过人为调高或者调低一些参数来控制ChatGPT的输出结果是很难的,人工干预可能导致更大的不公平。
[我耀学IT]:Patience is key in life