LLM
-
LLaMA-65B
Inference
LLaMA是大(dà)模型研究領域内最熱門(mén)的基座模型,由Meta開(kāi)源。時(shí)下(xià)熱點的Vicuna,Koala等模型都是在llama的基礎上(shàng)訓練的。現(xiàn)650億參數量的LLaMA模型已支持在太初卡上(shàng)推理(lǐ)使用(yòng)。
-
LLaMA-7B
Inference
LLaMA是大(dà)模型研究領域内最熱門(mén)的基座模型,由Meta開(kāi)源。時(shí)下(xià)熱點的Vicuna,Koala等模型都是在llama的基礎上(shàng)訓練的。現(xiàn)70億參數量的LLaMA模型已支持在太初卡上(shàng)推理(lǐ)使用(yòng)。
-
Baichuan-7B
Inference
Baichuan-7B 是由百川智能(néng)開(kāi)發的一個開(kāi)源可商用(yòng)的大(dà)規模預訓練語言模型。基于 Transformer 結構,在大(dà)約 1.2 萬億 tokens 上(shàng)訓練的 70 億參數模型,支持中英雙語,上(shàng)下(xià)文(wén)窗口長度爲 4096。現(xiàn)70億參數量的Baichuan模型已支持在太初卡上(shàng)推理(lǐ)使用(yòng)。
-
Baichuan-13B
Inference
Baichuan-13B 是由百川智能(néng)繼 Baichuan-7B 之後開(kāi)發的包含 130 億參數的開(kāi)源可商用(yòng)的大(dà)規模語言模型,在權威的中文(wén)和(hé)英文(wén) benchmark 上(shàng)均取得同尺寸最好(hǎo)的效果。現(xiàn)130億參數量的Baichuan模型已支持在太初卡上(shàng)推理(lǐ)使用(yòng)。
-
BLOOM-7B
Inference
BLOOM 是一種自(zì)回歸大(dà)型語言模型 (LLM),經過訓練,可使用(yòng)工(gōng)業規模的計(jì)算(suàn)資源根據大(dà)量文(wén)本數據的提示繼續文(wén)本。因此,它能(néng)夠以 46 種語言和(hé) 13 種編程語言輸出連貫的文(wén)本。現(xiàn)70億參數量的Bloom模型已支持在太初卡上(shàng)推理(lǐ)使用(yòng)。
-
GPT-2-13B
Inference
GPT-2(Generative Pre-trained Transformer 2 )是OpenAI于2019年2月創建的大(dà)語言模型。GPT-2能(néng)夠翻譯文(wén)本、回答(dá)問題、總結段落,并生成文(wén)本輸出。現(xiàn)130億參數量的GPT2模型已支持在太初卡上(shàng)推理(lǐ)使用(yòng)。
-
GPT-2-13B
Pretrain
GPT-2(Generative Pre-trained Transformer 2 )是OpenAI于2019年2月創建的大(dà)語言模型。GPT-2能(néng)夠翻譯文(wén)本、回答(dá)問題、總結段落,并生成文(wén)本輸出。現(xiàn)130億參數量的GPT2模型已支持在太初卡上(shàng)訓練使用(yòng)。
-
GPT-2-13B
Finetune
GPT-2(Generative Pre-trained Transformer 2 )是OpenAI于2019年2月創建的大(dà)語言模型。GPT-2能(néng)夠翻譯文(wén)本、回答(dá)問題、總結段落,并生成文(wén)本輸出。現(xiàn)130億參數量的GPT2模型已支持在太初卡上(shàng)微調使用(yòng)。
-
GPT-NeoX-20B
Inference
GPT-NeoX是EleutherAI訓練的自(zì)回歸大(dà)語言模型,該模型在學術、工(gōng)業和(hé)政府實驗室有廣泛應用(yòng)。現(xiàn)200億參數量的GPT2-NeoX模型已支持在太初卡上(shàng)推理(lǐ)使用(yòng)。
CV
-
Resnet50-v1.5
Pretrain | PyTorch
ResNet50 v1.5 (Residual Network),是一種特定類型的卷積神經網絡 (CNN),常用(yòng)于計(jì)算(suàn)機視(shì)覺領域。現(xiàn) ResNet50 v1.5 已支持在太初卡訓練(基于PyTorch框架)使用(yòng)。
-
Resnet50-v1.5
Inference
ResNet50 v1.5 (Residual Network),是一種特定類型的卷積神經網絡 (CNN),常用(yòng)于計(jì)算(suàn)機視(shì)覺領域。現(xiàn) ResNet50 v1.5 已支持在太初卡推理(lǐ)使用(yòng)。
-
Resnet50-v1.5
Pretrain | PaddlePaddle
ResNet50 v1.5 (Residual Network),是一種特定類型的卷積神經網絡 (CNN),常用(yòng)于計(jì)算(suàn)機視(shì)覺領域。現(xiàn) ResNet50 v1.5 已支持在太初卡訓練(基于PaddlePaddle框架)使用(yòng)。
-
Yolov5-m
Inference
Yolo V5建立在先前 YOLO 版本成功的基礎上(shàng),并引入了(le)新功能(néng)和(hé)改進,能(néng)夠快(kuài)速、準确且易于使用(yòng),Yolo V5已成爲各種對(duì)象檢測、實例分割和(hé)圖像分類任務的絕佳選擇。現(xiàn)Yolov5m(21.2M 參數)已支持在太初卡推理(lǐ)使用(yòng)。
-
Yolov5-l6
Pretrain | PyTorch
Yolo V5建立在先前 YOLO 版本成功的基礎上(shàng),并引入了(le)新功能(néng)和(hé)改進,能(néng)夠快(kuài)速、準确且易于使用(yòng),Yolo V5已成爲各種對(duì)象檢測、實例分割和(hé)圖像分類任務的絕佳選擇。現(xiàn)Yolov5l6(76.8M 參數)已支持在太初卡訓練(基于PyTorch框架)使用(yòng)。
-
Yolov5-l6
Inference
Yolo V5建立在先前 YOLO 版本成功的基礎上(shàng),并引入了(le)新功能(néng)和(hé)改進,能(néng)夠快(kuài)速、準确且易于使用(yòng),Yolo V5已成爲各種對(duì)象檢測、實例分割和(hé)圖像分類任務的絕佳選擇。現(xiàn)Yolov5l6(76.8M 參數)已支持在太初卡推理(lǐ)使用(yòng)。
語音(yīn)
-
Wav2Vec 2.0-base
Pretrain | PyTorch
Wav2vec使用(yòng)自(zì)監督的訓練方式從(cóng)未标記的訓練數據中訓練獲得語音(yīn)識别的能(néng)力,能(néng)夠支持多種語言識别。現(xiàn)Wav2Vec-2.0-base已支持在太初卡訓練(基于PyTorch框架)使用(yòng)。
-
Wav2Vec 2.0-base
Inference
Wav2vec使用(yòng)自(zì)監督的訓練方式從(cóng)未标記的訓練數據中訓練獲得語音(yīn)識别的能(néng)力,能(néng)夠支持多種語言識别。現(xiàn)Wav2Vec-2.0-base已支持在太初卡推理(lǐ)使用(yòng)。
NLP
-
BERT-Base
Pretrain | PyTorch
BERT(Bidirectional Encoder Representation from Transformers)是2018年10月由Google AI研究院提出的一種預訓練模型。現(xiàn)BERT-Base已支持在太初卡訓練(基于PyTorch框架)使用(yòng)。
-
BERT-Base
Inference
BERT(Bidirectional Encoder Representation from Transformers)是2018年10月由Google AI研究院提出的一種預訓練模型。現(xiàn)BERT-Base已支持在太初卡推理(lǐ)使用(yòng)。
抱歉,沒有找到(dào)“xxx”相關的結果,請(qǐng)嘗試其他(tā)搜索詞