ChatGPT3.5和4.0真的使用差距很大吗?
现在是2023年的11月14号,随着时间的推移,现在的GPT4.0已经进化到GPT4 Turbo了,可以理解为升级版的GPT4。
相比起之前的版本,现在的可接受输入文本达到了128K,可以接受图片等各种形式的文件输入,输出也有图片格式等。
总结起来就是更长(文本),更多(多模态),更强(综合性能)。
就连刚刚发布GPT4那会儿的「拍照片生成网页」的功能,现在每个人的GPT4都可以做到了。
事情是这样的,很久前GPT4刚发布的时候就有一个很炸裂的应用,手写一个网站草稿,完了GPT4可以识别并且生成相对应的网页代码。
而GPT-4V其实就有这样的能力。
这是我随手画的一个草图,我字写的难看,将就看。
然后上传到GPT4V上,并且让它根据这个生成Html。
从结果上看,它能读懂,并生成了html代码。
这串代码运行一下,是右边的东西
再加上一些CSS格式,让它好看一下
你可以看一些细节,完全没啥问题。
渲染出来的是这样
你就说牛不牛吧。
更别说这次的GPT4还附带了一个Agent功能,说白了就是定义属于自己的AI,比如你喜欢下棋,那你可以定义一个下棋AI,如果你需要做Logo,那你可以做一个LogoAI;甚至可以用它来生成各种美观的天气预报图。
使用方法非常的简单,输入一个地址就可以生成,比如london。
然后稍等片刻
前后不到1分钟,一张可以用的图片就被生成出来了。
这样的应用还有很多。
不过这些差别的来源主要依赖于GPT4 turbo,也就是升级版的GPT4.
GPT4强大的大模型能力才是核心,Agent不过是利用GPT4这个大脑+领域知识微调+外部接口引入。
核心还是GPT4!
核心还是GPT4!
核心还是GPT4!
没有这颗大脑,就什么也不是。
GPT4 API发布到前两天,OpenAI没有去发布什么AI Agent的功能,很多模型都可以多模态,它也没怎么管。
直到前两天,Assistants API, 多模态,AI Agent,GPTs商店等等东西一下子放出来。
这就有点儿像等着大家出招。
给人一种后来居上,后发制人的感觉。
因为本质上大家都在用它提供的API,而论谁对这个API最懂,那无疑是OpenAI。
我甚至觉得OpenAI每次发布新东西后都在乐呵呵的收集新出的Idea,然后自己后面悄悄捣鼓。
就比如说GPT商店这个东西,它才出现3天多。
已经有3600+的角色被共享出来了。
各种角色应有尽有
使用方式极其简单,可以看这里:毫无编程基础,如何靠自然语言搭建出属于自己的 AI Agent?
各种离谱的功能都有。
这就有点儿像是一个可以制作大脑的人,不知道大脑可以干嘛用,就发给别人来探索它的使用方法,一旦收集到足够多的ideas,就出来自己做这些功能,然后循环往复,因为自己是最懂这个大脑的人,所以做出来的东西效果最好。
其实你可以清楚的看到,说白了这些功能都是针对于ChatGPT的针对性使用,也就是对于Prompt以及GPT的理解,所以想要把ChatGPT上用的好,还是需要对ChatGPT有深刻的理解。因为对于ChatGPT的输出,很大程度上取决于你的输入。所以对于ChatGPT不太了解的朋友,我非常的建议你先去看看知乎知学堂开设的这门《人工智能课程》,其中的ChatGPT部分要尤其的注意。