1. 首页 >> ChatGPT教程 >>

让ChatGPT调用10万 开源AI模型!HuggingFace新功能爆火

只需和ChatGPT聊聊天,它就可以帮你调用10万+个HuggingFace模型!

chatgpt中文版 http://chatgpt.guige.xyz 

这是抱抱脸最新上线的功能HuggingFace Transformers Agents,一经推出就取得极大关注:

这个功能,相当于给ChatGPT等大模型配备了“多模态”能力——

不限于文本,而是图象、语音、文档等任何多模态任务都能解决。

例如告知ChatGPT“解释这张图象”,并扔给它一张海狸照片。ChatGPT就可以调用图象解释器,输出“海狸正在水里游泳”:

随后,ChatGPT再调用文字转语音,分分钟就可以把这句话读出来。

固然,它不但支持ChatGPT在内的OpenAI大模型,也支持OpenAssistant等不要钱大模型。

Transformer Agent负责“教会”这些大模型直接调用Hugging Face上的任意AI模型,并输出处理好的结果。

所以这个新上线的功能,背后的原理究竟是甚么?

怎么让大模型“指挥”各种AI?

简单来讲,Transformers Agents是一个大模型专属的“抱抱脸AI工具集成包”。

HuggingFace上各种大大小小的AI模型,都被收纳在这个包里,并被分门别类为“图象生成器”、“图象解释器”、“文本转语音工具”……

同时,每一个工具都会有对应的文字解释,方便大模型理解自己该调用甚么模型。

这样一来,只需要一段简单的代码+提示词,就可以让大模型帮助你直接运行AI模型,并将输出结果实时返还给你,进程一共分为三步:

首先,设置自己想用的大模型,这里可以用OpenAI的大模型(固然,API要收费):

from transformers import OpenAiAgentagent = OpenAiAgent(model="text-davinci-003", api_key="")也能够用BigCode或OpenAssistant等不要钱大模型:

from huggingface_hub import loginlogin("")然后,设置Hugging Transformers Agents。这里我们以默许的Agent为例:

from transformers import HfAgent# Starcoderagent = HfAgent("https://api-inference.huggingface.co/models/bigcode/starcoder")# StarcoderBase# agent = HfAgent("https://api-inference.huggingface.co/models/bigcode/starcoderbase")# OpenAssistant# agent = HfAgent(url_endpoint="https://api-inference.huggingface.co/models/OpenAssistant/oasst-sft⑷-pythia⑴2b-epoch⑶.5")

接下来,就能够使用run()或chat()两个指令,来运行Transformers Agents了。

run()合适同时调用多个AI模型,履行比较复杂专业的任务。

可以调用单个AI工具

例如履行agent.run(“Draw me a picture of rivers and lakes.”),它就可以调用AI文生图工具帮你生成一张图象:

也能够同时调用多个AI工具

例如履行agent.run(“Draw me a picture of the sea then transform the picture to add an island”),它就可以调用“文生图”和“图生图”工具,帮你生成对应图象:

chat()则合适以聊天的方式“延续完成任务”。

例如,先调用文生图AI工具,生成一个河流湖泊图片:agent.chat(“Generate a picture of rivers and lakes”)

再在这张图片的基础上做“图生图”修改:agent.chat(“Transform the picture so that there is a rock in there”)

要调用的AI模型可以自行设置,也能够使用抱抱脸自带的一套默许设置来完成。

已设置一套默许AI模型

目前,Transformers Agents已集成了一套默许AI模型,通过调用以下Transformer库中的AI模型来完成:

1、视觉文档理解模型Donut。给定图片格式的文件(PDF转图片也能够),它就可以回答关于这个文件的问题。

例如问“TRRF科学咨询委员会会议将在哪里举行”,Donut就会给出答案:

2、文字问答模型Flan-T5。给定长文章和一个问题,它就可以回答各种文字问题,帮你做浏览理解。

3、零样本视觉语言模型BLIP。它可以直接理解图象中的内容,并对图象进行文字说明。

4、多模态模型ViLT。它可以理解并回答给定图象中的问题,

5、多模态图象分割模型CLIPseg。只需要给它一个模型和一个提示词,它就可以根据这个提示分割出图象中指定的内容(mask)。

6、自动语音辨认模型Whisper。它可以自动辨认一段录音中的文字,并完成转录。

7、语音合成模型SpeechT5。用于文本转语音。

8、自编码语言模型BART。除可以自动给一段文字内容分类,还可以做文本摘要。

9、200种语言翻译模型NLLB。除常见语言外,还可以翻译一些不太常见的语言,包括老挝语和卡姆巴语等。

通过调用上面这些AI模型,包括图象问答、文档理解、图象分割、录音转文字、翻译、起标题、文本转语音、文本分类在内的任务都可以完成。

除此以外,抱抱脸还“夹带私货”,包括了一些Transformer库之外的模型,包括从网页下载文本、文生图、图生图、文生视频:

这些模型不但能单独调用,还可以混合在一起使用,例如要求大模型“生成并描写一张好看的海狸照片”,它就会分别调用“文生图”和“图片理解”AI模型。

固然,如果我们不想用这些默许AI模型,想设置一套更好用的“工具集成包”,也能够根据步骤自行设置。

对Transformers Agents,也有网友指出,有点像是LangChainagents的“平替”:

你试过这两个工具了吗?感觉哪一个更好用?

桂|哥|网|络www.guIgege.cn

本文来源于chatgptplus账号购买平台,转载请注明出处:https://chatgpt.guigege.cn/jiaocheng/29760.html 咨询请加VX:muhuanidc

联系我们

在线咨询:点击这里给我发消息

微信号:muhuanidc

工作日:9:30-22:30

X

截屏,微信识别二维码

微信号:muhuanidc

(点击微信号复制,添加好友)

打开微信

微信号已复制,请打开微信添加咨询详情!