Llama(輸入文本和圖像)模型
目前Llama系列模型不僅能夠處理文本數據,還能夠處理圖像數據;Llama3.2的部分模型加入了視覺理解的功能,該模型支持同時輸入文本和圖像數據,對圖像進行理解并輸出文本信息;關于Llama系列中僅文本輸入的模型詳情,請閱讀Llama模型(僅文本輸入)API參考。
如何使用
前提條件
您需要已獲取API Key并配置API Key到環境變量。如果通過SDK調用,還需要安裝DashScope SDK。
您需要已在百煉平臺的模型廣場申請Llama(輸入文本和圖像)模型的調用權限。
注:下文以llama3.2-text-image來表示Llama(輸入文本和圖像)模型。
簡單示例
您可以通過DashScope SDK或HTTP方式調用llama3.2-text-image模型,體驗單輪對話的功能。
Python
示例代碼
from http import HTTPStatus
import os
import dashscope
def call_with_messages():
messages = [
{
"role": "user",
"content": [
{"image": "https://help-static-aliyun-doc.aliyuncs.com/file-manage-files/zh-CN/20241022/emyrja/dog_and_girl.jpeg"},
{"text": "這是什么,請用中文回答?"}
]
}
]
response = dashscope.MultiModalConversation.call(
# 若沒有配置環境變量,請用百煉API Key將下行替換為:api_key="sk-xxx",
api_key=os.getenv('DASHSCOPE_API_KEY'),
model='llama3.2-90b-vision-instruct',
messages=messages,
)
if response.status_code == HTTPStatus.OK:
print(response.output.choices[0].message.content[0]["text"])
else:
print('Request id: %s, Status code: %s, error code: %s, error message: %s' % (
response.request_id, response.status_code,
response.code, response.message
))
if __name__ == '__main__':
call_with_messages()
返回結果
這是一張照片,照片中是一只狗和一個女孩在海灘上互動。狗坐在沙灘上,伸出前爪,好像在和女孩握手。女孩也伸出手,好像在和狗握手。他們的表情都很開心,好像在玩游戲。背景是海灘和大海,天氣看起來很好。整體來說,這張照片很溫馨,好像是在記錄一只狗和它的主人之間的親密關系。
輸入參數
model | 模型名稱。 |
messages | 由歷史對話組成的消息列表,有以下三種消息類型: 系統消息:用于指定模型的目標或角色。如果設置系統消息,請放在messages列表的第一位。 用戶消息:輸入給模型的文本、圖像信息。llama3.2-text-image模型不支持純文本輸入,即用戶信息中,必須存在圖像的URL鏈接。 助手消息:模型對用戶消息的回復。您也可以預先填寫助手消息,作為后續助手消息的示例。 |
max_new_tokens | 模型輸出的最大token數,默認值為512。 |
top_p | 用于控制模型生成文本的多樣性,為可選值,取值范圍:(0,1.0],默認值為1.0。 |
temperature | 表示采樣溫度,用于控制模型生成文本的多樣性。temperature越高,生成的文本更多樣,反之,生成的文本更確定。取值大于等于0,默認值為0.8。 |
top_k | 表示生成過程中采樣候選集的大小。例如,取值為50時,僅將單次生成中得分最高的50個Token組成隨機采樣的候選集。取值越大,生成的隨機性越高;取值越小,生成的確定性越高。取值為None或當top_k大于100時,表示不啟用top_k策略,此時僅有top_p策略生效。 |
注:
|
輸出參數
返回參數 | 類型 | 說明 |
status_code | integer | 200(HTTPStatus.OK)表示請求成功,否則表示請求失敗,可以通過code獲取錯誤碼,通過message字段獲取錯誤詳細信息。 |
request_Id | string | 系統生成的標志本次調用的id。 |
code | string | 表示請求失敗,表示錯誤碼,成功忽略。 |
message | string | 失敗,表示失敗詳細信息,成功忽略。 |
output | object | 調用結果信息,對于Llama2模型,包含輸出text。 |
output.text | string | 模型生成回復。 |
usage.input_tokens | integer | 用戶輸入的文本和圖像轉換成Token后的長度。 |
usage.output_tokens | integer | 模型生成回復轉換為Token后的長度。 |
Java
示例代碼
import java.util.Arrays;
import java.util.Collections;
import com.alibaba.dashscope.aigc.multimodalconversation.MultiModalConversation;
import com.alibaba.dashscope.aigc.multimodalconversation.MultiModalConversationParam;
import com.alibaba.dashscope.aigc.multimodalconversation.MultiModalConversationResult;
import com.alibaba.dashscope.common.MultiModalMessage;
import com.alibaba.dashscope.common.Role;
import com.alibaba.dashscope.exception.ApiException;
import com.alibaba.dashscope.exception.NoApiKeyException;
import com.alibaba.dashscope.exception.UploadFileException;
import com.alibaba.dashscope.utils.JsonUtils;
public class Main {
public static void simpleMultiModalConversationCall()
throws ApiException, NoApiKeyException, UploadFileException {
MultiModalConversation conv = new MultiModalConversation();
MultiModalMessage userMessage = MultiModalMessage.builder().role(Role.USER.getValue())
.content(Arrays.asList(
Collections.singletonMap("image", "https://help-static-aliyun-doc.aliyuncs.com/file-manage-files/zh-CN/20241022/emyrja/dog_and_girl.jpeg"),
Collections.singletonMap("text", "這是什么?"))).build();
MultiModalConversationParam param = MultiModalConversationParam.builder()
.model("llama3.2-90b-vision-instruct")
.message(userMessage)
.build();
MultiModalConversationResult result = conv.call(param);
System.out.println(result.getOutput().getChoices().get(0).getMessage().getContent().get(0).get("text"));
}
public static void main(String[] args) {
try {
simpleMultiModalConversationCall();
} catch (ApiException | NoApiKeyException | UploadFileException e) {
System.out.println(e.getMessage());
}
System.exit(0);
}
}
返回結果
這是一張照片,照片中有一個女孩和一只狗。女孩坐在沙灘上,狗坐在她旁邊。女孩伸出手,狗也伸出爪子,好像在和女孩握手。女孩和狗都很開心的樣子。背景是海灘和海洋,天氣看起來很好。
curl
示例代碼
curl -X POST https://dashscope.aliyuncs.com/api/v1/services/aigc/multimodal-generation/generation \
-H "Authorization: Bearer $DASHSCOPE_API_KEY" \
-H 'Content-Type: application/json' \
-d '{
"model": "llama3.2-90b-vision-instruct",
"input":{
"messages":[
{
"role": "user",
"content": [
{"image": "https://help-static-aliyun-doc.aliyuncs.com/file-manage-files/zh-CN/20241022/emyrja/dog_and_girl.jpeg"},
{"text": "這是什么?"}
]
}
]
}
}'
返回結果
{
"output": {
"choices": [
{
"finish_reason": "stop",
"message": {
"role": "assistant",
"content": [
{
"text": "這是一張照片,照片中有一個女孩和一只狗。女孩坐在沙灘上,狗坐在她旁邊。女孩伸出手,狗也伸出爪子,好像在和女孩握手。女孩和狗都很開心的樣子。背景是海灘和海洋,天氣看起來很好。"
}
]
}
}
]
},
"usage": {
"output_tokens": 79,
"input_tokens": 45
},
"request_id": "c3e73869-77a5-9f29-a1cf-a42b7800805f"
}
多輪對話(參考歷史對話信息)
llama3.2-text-image模型可以參考歷史對話信息進行回復;您可以參考以下示例代碼,通過DashScope SDK或HTTP方式,調用llama3.2-text-image模型,實現多輪對話的功能。
Python
示例代碼
import os
from dashscope import MultiModalConversation
messages = [
{
"role": "user",
"content": [
{
"image": "https://help-static-aliyun-doc.aliyuncs.com/file-manage-files/zh-CN/20241022/emyrja/dog_and_girl.jpeg"
},
{"text": "這是什么?"},
],
}
]
response = MultiModalConversation.call(
# 若沒有配置環境變量,請用百煉API Key將下行替換為:api_key="sk-xxx",
api_key=os.getenv('DASHSCOPE_API_KEY'),
model='llama3.2-90b-vision-instruct',
messages=messages)
print(f"模型第一輪輸出:{response.output.choices[0].message.content[0]['text']}")
messages.append(response['output']['choices'][0]['message'])
user_msg = {"role": "user", "content": [{"text": "做一首詩描述這個場景"}]}
messages.append(user_msg)
response = MultiModalConversation.call(
# 若沒有配置環境變量,請用百煉API Key將下行替換為:api_key="sk-xxx",
api_key=os.getenv('DASHSCOPE_API_KEY'),
model='llama3.2-90b-vision-instruct',
messages=messages)
print(f"模型第二輪輸出:{response.output.choices[0].message.content[0]['text']}")
返回結果
模型第一輪輸出:這是一張照片,照片中有一個女孩和一只狗。女孩坐在沙灘上,狗坐在她旁邊。女孩伸出手,狗也伸出爪子,好像在和女孩握手。女孩和狗都很開心的樣子。背景是海灘和海洋,天氣看起來很好。
模型第二輪輸出:海灘上的女孩和狗,
握手,笑容滿面。
狗的爪子,女孩的手,
一起握緊,心心相連。
海浪拍打,沙灘上,
女孩和狗,享受幸福。
他們的笑聲,海浪的聲,
融合在一起,幸福的旋律。
Java
示例代碼
import java.util.ArrayList;
import java.util.Arrays;
import java.util.Collections;
import java.util.List;
import com.alibaba.dashscope.aigc.multimodalconversation.MultiModalConversation;
import com.alibaba.dashscope.aigc.multimodalconversation.MultiModalConversationParam;
import com.alibaba.dashscope.aigc.multimodalconversation.MultiModalConversationResult;
import com.alibaba.dashscope.common.MultiModalMessage;
import com.alibaba.dashscope.common.Role;
import com.alibaba.dashscope.exception.ApiException;
import com.alibaba.dashscope.exception.NoApiKeyException;
import com.alibaba.dashscope.exception.UploadFileException;
public class Main {
private static final String modelName = "llama3.2-90b-vision-instruct";
public static void MultiRoundConversationCall() throws ApiException, NoApiKeyException, UploadFileException {
MultiModalConversation conv = new MultiModalConversation();
MultiModalMessage systemMessage = MultiModalMessage.builder().role(Role.SYSTEM.getValue())
.content(Arrays.asList(Collections.singletonMap("text", "You are a helpful assistant."))).build();
MultiModalMessage userMessage = MultiModalMessage.builder().role(Role.USER.getValue())
.content(Arrays.asList(Collections.singletonMap("image", "https://help-static-aliyun-doc.aliyuncs.com/file-manage-files/zh-CN/20241022/emyrja/dog_and_girl.jpeg"),
Collections.singletonMap("text", "這是什么?"))).build();
List<MultiModalMessage> messages = new ArrayList<>();
messages.add(systemMessage);
messages.add(userMessage);
MultiModalConversationParam param = MultiModalConversationParam.builder()
// 若沒有配置環境變量,請用百煉API Key將下行替換為:.apiKey("sk-xxx")
.apiKey(System.getenv("DASHSCOPE_API_KEY")) .model(modelName)
.messages(messages)
.build();
MultiModalConversationResult result = conv.call(param);
System.out.println("第一輪輸出:"+result.getOutput().getChoices().get(0).getMessage().getContent().get(0).get("text")); // add the result to conversation
messages.add(result.getOutput().getChoices().get(0).getMessage());
MultiModalMessage msg = MultiModalMessage.builder().role(Role.USER.getValue())
.content(Arrays.asList(Collections.singletonMap("text", "做一首詩描述這個場景"))).build();
messages.add(msg);
param.setMessages((List)messages);
result = conv.call(param);
System.out.println("第二輪輸出:"+result.getOutput().getChoices().get(0).getMessage().getContent().get(0).get("text")); }
public static void main(String[] args) {
try {
MultiRoundConversationCall();
} catch (ApiException | NoApiKeyException | UploadFileException e) {
System.out.println(e.getMessage());
}
System.exit(0);
}
}
返回結果
第一輪輸出:這是一張照片,照片中有一個女孩和一只狗。女孩坐在沙灘上,狗坐在她旁邊。女孩伸出手,狗也伸出爪子,好像在和女孩握手。女孩和狗都很開心的樣子。背景是海灘和海洋,天氣看起來很好。
第二輪輸出:海灘上的女孩和狗,
握手,笑容滿面。
狗的爪子,女孩的手,
一起握緊,心心相連。
海浪拍打,沙灘上,
女孩和狗,享受幸福。
他們的笑聲,海浪的聲,
融合在一起,幸福的旋律。
curl
示例代碼
curl -X POST https://dashscope.aliyuncs.com/api/v1/services/aigc/multimodal-generation/generation \
-H "Authorization: Bearer $DASHSCOPE_API_KEY" \
-H 'Content-Type: application/json' \
-d '{
"model": "llama3.2-90b-vision-instruct",
"input":{
"messages":[
{
"role": "user",
"content": [
{"image": "https://help-static-aliyun-doc.aliyuncs.com/file-manage-files/zh-CN/20241022/emyrja/dog_and_girl.jpeg"},
{"text": "這是什么?"}
]
},
{
"role": "assistant",
"content": [
{"text": "這是一只小狗和一個女孩在海邊。"}
]
},
{
"role": "user",
"content": [
{"text": "做一首詩描述這個場景"}
]
}
]
}
}'
返回結果
{
"output": {
"choices": [
{
"finish_reason": "stop",
"message": {
"role": "assistant",
"content": [
{
"text": "海邊小狗嬉戲,女孩笑容如花。\n\n小狗搖尾巴,女孩撫摸它的頭。\n\n海浪拍打岸邊,女孩和小狗一起玩耍。\n\n夕陽西下,女孩和小狗一起享受美麗的時刻。"
}
]
}
}
]
},
"usage": {
"output_tokens": 66,
"input_tokens": 81
},
"request_id": "46fbf222-09b1-95cb-978a-621cc463b9a0"
}
流式輸出
大模型并不是一次性生成最終結果,而是逐步地生成中間結果,最終結果由中間結果拼接而成。使用非流式輸出方式需要等待模型生成結束后再將生成的中間結果拼接后返回,而流式輸出可以實時地將中間結果返回,您可以在模型進行輸出的同時進行閱讀,減少等待模型回復的時間。
您可以參考以下代碼,通過DashScope SDK或HTTP方式,體驗流式輸出的功能。
在Python SDK中請通過設置stream為True來實現流式輸出,在Java SDK中實現流式輸出請通過streamCall
接口調用;通過HTTP實現流式輸出請在Header中指定X-DashScope-SSE
為enable
。 目前DashScope SDK或HTTP方式均不支持incremental_output增量輸出。
Python
示例代碼
import os
from dashscope import MultiModalConversation
messages = [
{
"role": "user",
"content": [
{"image": "https://help-static-aliyun-doc.aliyuncs.com/file-manage-files/zh-CN/20241022/emyrja/dog_and_girl.jpeg"},
{"text": "這是什么?"}
]
}
]
responses = MultiModalConversation.call(
# 若沒有配置環境變量,請用百煉API Key將下行替換為:api_key="sk-xxx",
api_key=os.getenv("DASHSCOPE_API_KEY"),
model='llama3.2-90b-vision-instruct', #'llama3.2-90b-vision-instruct',
messages=messages,
stream=True)
print("流式輸出內容為:")
for response in responses:
print(response["output"])
返回結果
{"text": null, "finish_reason": null, "choices": [{"finish_reason": "null", "message": {"role": "assistant", "content": [{"text": "這"}]}}]}
{"text": null, "finish_reason": null, "choices": [{"finish_reason": "null", "message": {"role": "assistant", "content": [{"text": "這是一"}]}}]}
{"text": null, "finish_reason": null, "choices": [{"finish_reason": "null", "message": {"role": "assistant", "content": [{"text": "這是一張"}]}}]}
{"text": null, "finish_reason": null, "choices": [{"finish_reason": "null", "message": {"role": "assistant", "content": [{"text": "這是一張照片"}]}}]}
{"text": null, "finish_reason": null, "choices": [{"finish_reason": "null", "message": {"role": "assistant", "content": [{"text": "這是一張照片,"}]}}]}
......
{"text": null, "finish_reason": null, "choices": [{"finish_reason": "null", "message": {"role": "assistant", "content": [{"text": "這是一張照片,照片中有一個女孩和一只狗。女孩坐在沙灘上,狗坐在她旁邊。女孩伸出手,狗也伸出爪子,好像在和女孩握手。女孩和狗都很開心的樣子。背景是海灘和海洋,天氣看起來很好"}]}}]}
{"text": null, "finish_reason": null, "choices": [{"finish_reason": "null", "message": {"role": "assistant", "content": [{"text": "這是一張照片,照片中有一個女孩和一只狗。女孩坐在沙灘上,狗坐在她旁邊。女孩伸出手,狗也伸出爪子,好像在和女孩握手。女孩和狗都很開心的樣子。背景是海灘和海洋,天氣看起來很好。"}]}}]}
{"text": null, "finish_reason": null, "choices": [{"finish_reason": "stop", "message": {"role": "assistant", "content": [{"text": "這是一張照片,照片中有一個女孩和一只狗。女孩坐在沙灘上,狗坐在她旁邊。女孩伸出手,狗也伸出爪子,好像在和女孩握手。女孩和狗都很開心的樣子。背景是海灘和海洋,天氣看起來很好。"}]}}]}
Java
示例代碼
import java.util.Arrays;
import java.util.HashMap;
import com.alibaba.dashscope.aigc.multimodalconversation.MultiModalConversation;
import com.alibaba.dashscope.aigc.multimodalconversation.MultiModalConversationParam;
import com.alibaba.dashscope.aigc.multimodalconversation.MultiModalConversationResult;
import com.alibaba.dashscope.common.MultiModalMessage;
import com.alibaba.dashscope.common.Role;
import com.alibaba.dashscope.exception.ApiException;
import com.alibaba.dashscope.exception.NoApiKeyException;
import com.alibaba.dashscope.exception.UploadFileException;
import com.google.gson.Gson;
import io.reactivex.Flowable;
public class Main {
public static void streamCall()
throws ApiException, NoApiKeyException, UploadFileException {
MultiModalConversation conv = new MultiModalConversation();
// must create mutable map.
MultiModalMessage userMessage = MultiModalMessage.builder().role(Role.USER.getValue())
.content(Arrays.asList(new HashMap<String, Object>(){{put("image", "https://help-static-aliyun-doc.aliyuncs.com/file-manage-files/zh-CN/20241022/emyrja/dog_and_girl.jpeg");}},
new HashMap<String, Object>(){{put("text", "這是什么");}})).build();
MultiModalConversationParam param = MultiModalConversationParam.builder()
// 若沒有配置環境變量,請用百煉API Key將下行替換為:.apiKey("sk-xxx")
.apiKey(System.getenv("DASHSCOPE_API_KEY"))
.model("llama3.2-90b-vision-instruct")
.message(userMessage)
.build();
Flowable<MultiModalConversationResult> result = conv.streamCall(param);
Gson gson = new Gson();
result.blockingForEach(item -> {
try {
System.out.println(gson.toJson(item.getOutput()));
} catch (Exception e){
System.exit(0);
}
});
}
public static void main(String[] args) {
try {
streamCall();
} catch (ApiException | NoApiKeyException | UploadFileException e) {
System.out.println(e.getMessage());
}
System.exit(0);
}
}
返回結果
{"choices":[{"finish_reason":"null","message":{"role":"assistant","content":[{"text":"這"}]}}]}
{"choices":[{"finish_reason":"null","message":{"role":"assistant","content":[{"text":"這是一"}]}}]}
{"choices":[{"finish_reason":"null","message":{"role":"assistant","content":[{"text":"這是一張"}]}}]}
......
{"choices":[{"finish_reason":"null","message":{"role":"assistant","content":[{"text":"這是一張照片,照片中是一只狗和一個女孩坐在沙灘上。狗伸出前爪,女孩也伸出手,兩人似乎正在互動。背景是沙灘和"}]}}]}
{"choices":[{"finish_reason":"null","message":{"role":"assistant","content":[{"text":"這是一張照片,照片中是一只狗和一個女孩坐在沙灘上。狗伸出前爪,女孩也伸出手,兩人似乎正在互動。背景是沙灘和海"}]}}]}
{"choices":[{"finish_reason":"null","message":{"role":"assistant","content":[{"text":"這是一張照片,照片中是一只狗和一個女孩坐在沙灘上。狗伸出前爪,女孩也伸出手,兩人似乎正在互動。背景是沙灘和海浪"}]}}]}
{"choices":[{"finish_reason":"null","message":{"role":"assistant","content":[{"text":"這是一張照片,照片中是一只狗和一個女孩坐在沙灘上。狗伸出前爪,女孩也伸出手,兩人似乎正在互動。背景是沙灘和海浪。"}]}}]}
{"choices":[{"finish_reason":"stop","message":{"role":"assistant","content":[{"text":"這是一張照片,照片中是一只狗和一個女孩坐在沙灘上。狗伸出前爪,女孩也伸出手,兩人似乎正在互動。背景是沙灘和海浪。"}]}}]}
curl
示例代碼
curl -X POST https://dashscope.aliyuncs.com/api/v1/services/aigc/multimodal-generation/generation \
-H "Authorization: Bearer $DASHSCOPE_API_KEY" \
-H 'Content-Type: application/json' \
-H 'X-DashScope-SSE: enable' \
-d '{
"model": "llama3.2-90b-vision-instruct",
"input":{
"messages":[
{
"role": "system",
"content": [
{"text": "You are a helpful assistant."}
]
},
{
"role": "user",
"content": [
{"image": "https://help-static-aliyun-doc.aliyuncs.com/file-manage-files/zh-CN/20241022/emyrja/dog_and_girl.jpeg"},
{"text": "這是什么?"}
]
}
]
}
}'
返回結果
id:1
event:result
:HTTP_STATUS/200
data:{"output":{"choices":[{"message":{"content":[{"text":"這"}],"role":"assistant"},"finish_reason":"null"}]},"usage":{"input_tokens":45,"output_tokens":1},"request_id":"27f2d0c7-27f2-9657-a164-818e80c012e3"}
id:2
event:result
:HTTP_STATUS/200
data:{"output":{"choices":[{"message":{"content":[{"text":"這是一"}],"role":"assistant"},"finish_reason":"null"}]},"usage":{"input_tokens":45,"output_tokens":2},"request_id":"27f2d0c7-27f2-9657-a164-818e80c012e3"}
......
id:79
event:result
:HTTP_STATUS/200
data:{"output":{"choices":[{"message":{"content":[{"text":"這是一張照片,照片中有一個女孩和一只狗。女孩坐在沙灘上,狗坐在她旁邊。女孩伸出手,狗也伸出爪子,好像在和女孩握手。女孩和狗都很開心的樣子。背景是海灘和海洋,天氣看起來很好。"}],"role":"assistant"},"finish_reason":"null"}]},"usage":{"input_tokens":45,"output_tokens":79},"request_id":"27f2d0c7-27f2-9657-a164-818e80c012e3"}
id:80
event:result
:HTTP_STATUS/200
data:{"output":{"choices":[{"message":{"content":[{"text":"這是一張照片,照片中有一個女孩和一只狗。女孩坐在沙灘上,狗坐在她旁邊。女孩伸出手,狗也伸出爪子,好像在和女孩握手。女孩和狗都很開心的樣子。背景是海灘和海洋,天氣看起來很好。"}],"role":"assistant"},"finish_reason":"stop"}]},"usage":{"input_tokens":45,"output_tokens":79},"request_id":"27f2d0c7-27f2-9657-a164-818e80c012e3"}
支持的圖片
圖片格式 | Content Type | 文件擴展名 |
BMP | image/bmp | .bmp |
DIB | image/bmp | .dib |
ICNS | image/icns | .icns |
ICO | image/x-icon | .ico |
JPEG | image/jpeg | .jfif, .jpe, .jpeg, .jpg |
JPEG2000 | image/jp2 | .j2c, .j2k, .jp2, .jpc, .jpf, .jpx |
PNG | image/png | .apng, .png |
SGI | image/sgi | .bw, .rgb, .rgba, .sgi |
TIFF | image/tiff | .tif, .tiff |
WEBP | image/webp | .webp |
對于輸入的圖片有以下限制:
圖片文件大小不超過10MB。
模型列表、計費和免費額度
模型名稱 |
上下文長度 |
輸入輸出成本 |
免費額度 |
(Token數) |
|||
llama3.2-90b-vision-instruct |
8192 |
目前僅供免費體驗。 免費額度用完后不可調用,敬請關注后續動態。 |
100萬Token(需申請) 有效期:百煉開通后180天內。 |
llama3.2-11b-vision |
常見問題
我可以刪除已上傳的圖片嗎?
答:在模型完成文本生成后,百煉服務器會自動將圖片刪除,無需手動刪除。
llama3.2-text-image模型是否支持理解視頻內容?
答:llama3.2-text-image目前不支持傳入視頻文件,也不支持傳入圖片列表。
llama3.2-text-image模型是否支持本地文件?
答:llama3.2-text-image目前不支持本地文件傳入。