請(qǐng)輸入關鍵字
搜索
模型庫
LLaMA-65B
Inference
LLaMA是大(dà)模型研究領域内最熱門(mén)的基座模型,由Meta開(kāi)源。時(shí)下(xià)熱點的Vicuna,Koala等模型都是在llama的基礎上(shàng)訓練的。現(xiàn)650億參數量的LLaMA模型已支持在太初卡上(shàng)推理(lǐ)使用(yòng)。
LLaMA-7B
Inference
LLaMA是大(dà)模型研究領域内最熱門(mén)的基座模型,由Meta開(kāi)源。時(shí)下(xià)熱點的Vicuna,Koala等模型都是在llama的基礎上(shàng)訓練的。現(xiàn)70億參數量的LLaMA模型已支持在太初卡上(shàng)推理(lǐ)使用(yòng)。
Baichuan-7B
Inference
Baichuan-7B 是由百川智能(néng)開(kāi)發的一個開(kāi)源可商用(yòng)的大(dà)規模預訓練語言模型。基于 Transformer 結構,在大(dà)約 1.2 萬億 tokens 上(shàng)訓練的 70 億參數模型,支持中英雙語,上(shàng)下(xià)文(wén)窗口長度爲 4096。現(xiàn)70億參數量的Baichuan模型已支持在太初卡上(shàng)推理(lǐ)使用(yòng)。
Baichuan-13B
Inference
Baichuan-13B 是由百川智能(néng)繼 Baichuan-7B 之後開(kāi)發的包含 130 億參數的開(kāi)源可商用(yòng)的大(dà)規模語言模型,在權威的中文(wén)和(hé)英文(wén) benchmark 上(shàng)均取得同尺寸最好(hǎo)的效果。現(xiàn)130億參數量的Baichuan模型已支持在太初卡上(shàng)推理(lǐ)使用(yòng)。
LLM
相關模型數:
  • LLaMA-65B
    Inference
    LLaMA是大(dà)模型研究領域内最熱門(mén)的基座模型,由Meta開(kāi)源。時(shí)下(xià)熱點的Vicuna,Koala等模型都是在llama的基礎上(shàng)訓練的。現(xiàn)650億參數量的LLaMA模型已支持在太初卡上(shàng)推理(lǐ)使用(yòng)。
  • LLaMA-7B
    Inference
    LLaMA是大(dà)模型研究領域内最熱門(mén)的基座模型,由Meta開(kāi)源。時(shí)下(xià)熱點的Vicuna,Koala等模型都是在llama的基礎上(shàng)訓練的。現(xiàn)70億參數量的LLaMA模型已支持在太初卡上(shàng)推理(lǐ)使用(yòng)。
  • Baichuan-7B
    Inference
    Baichuan-7B 是由百川智能(néng)開(kāi)發的一個開(kāi)源可商用(yòng)的大(dà)規模預訓練語言模型。基于 Transformer 結構,在大(dà)約 1.2 萬億 tokens 上(shàng)訓練的 70 億參數模型,支持中英雙語,上(shàng)下(xià)文(wén)窗口長度爲 4096。現(xiàn)70億參數量的Baichuan模型已支持在太初卡上(shàng)推理(lǐ)使用(yòng)。
  • Baichuan-13B
    Inference
    Baichuan-13B 是由百川智能(néng)繼 Baichuan-7B 之後開(kāi)發的包含 130 億參數的開(kāi)源可商用(yòng)的大(dà)規模語言模型,在權威的中文(wén)和(hé)英文(wén) benchmark 上(shàng)均取得同尺寸最好(hǎo)的效果。現(xiàn)130億參數量的Baichuan模型已支持在太初卡上(shàng)推理(lǐ)使用(yòng)。
  • BLOOM-7B
    Inference
    BLOOM 是一種自(zì)回歸大(dà)型語言模型 (LLM),經過訓練,可使用(yòng)工(gōng)業規模的計(jì)算(suàn)資源根據大(dà)量文(wén)本數據的提示繼續文(wén)本。因此,它能(néng)夠以 46 種語言和(hé) 13 種編程語言輸出連貫的文(wén)本。現(xiàn)70億參數量的Bloom模型已支持在太初卡上(shàng)推理(lǐ)使用(yòng)。
  • GPT-2-13B
    Inference
    GPT-2(Generative Pre-trained Transformer 2 )是OpenAI于2019年2月創建的大(dà)語言模型。GPT-2能(néng)夠翻譯文(wén)本、回答(dá)問題、總結段落,并生成文(wén)本輸出。現(xiàn)130億參數量的GPT2模型已支持在太初卡上(shàng)推理(lǐ)使用(yòng)。
  • GPT-2-13B
    Pretrain
    GPT-2(Generative Pre-trained Transformer 2 )是OpenAI于2019年2月創建的大(dà)語言模型。GPT-2能(néng)夠翻譯文(wén)本、回答(dá)問題、總結段落,并生成文(wén)本輸出。現(xiàn)130億參數量的GPT2模型已支持在太初卡上(shàng)訓練使用(yòng)。
  • GPT-2-13B
    Finetune
    GPT-2(Generative Pre-trained Transformer 2 )是OpenAI于2019年2月創建的大(dà)語言模型。GPT-2能(néng)夠翻譯文(wén)本、回答(dá)問題、總結段落,并生成文(wén)本輸出。現(xiàn)130億參數量的GPT2模型已支持在太初卡上(shàng)微調使用(yòng)。
  • GPT-NeoX-20B
    Inference
    GPT-NeoX是EleutherAI訓練的自(zì)回歸大(dà)語言模型,該模型在學術、工(gōng)業和(hé)政府實驗室有廣泛應用(yòng)。現(xiàn)200億參數量的GPT2-NeoX模型已支持在太初卡上(shàng)推理(lǐ)使用(yòng)。
多模态
相關模型數:
CV
相關模型數:
  • Resnet50-v1.5
    Pretrain | PyTorch
    ResNet50 v1.5 (Residual Network),是一種特定類型的卷積神經網絡 (CNN),常用(yòng)于計(jì)算(suàn)機視(shì)覺領域。現(xiàn) ResNet50 v1.5 已支持在太初卡訓練(基于PyTorch框架)使用(yòng)。
  • Resnet50-v1.5
    Inference
    ResNet50 v1.5 (Residual Network),是一種特定類型的卷積神經網絡 (CNN),常用(yòng)于計(jì)算(suàn)機視(shì)覺領域。現(xiàn) ResNet50 v1.5 已支持在太初卡推理(lǐ)使用(yòng)。
  • Resnet50-v1.5
    Pretrain | PaddlePaddle
    ResNet50 v1.5 (Residual Network),是一種特定類型的卷積神經網絡 (CNN),常用(yòng)于計(jì)算(suàn)機視(shì)覺領域。現(xiàn) ResNet50 v1.5 已支持在太初卡訓練(基于PaddlePaddle框架)使用(yòng)。
  • Yolov5-m
    Inference
    Yolo V5建立在先前 YOLO 版本成功的基礎上(shàng),并引入了(le)新功能(néng)和(hé)改進,能(néng)夠快(kuài)速、準确且易于使用(yòng),Yolo V5已成爲各種對(duì)象檢測、實例分割和(hé)圖像分類任務的絕佳選擇。現(xiàn)Yolov5m(21.2M 參數)已支持在太初卡推理(lǐ)使用(yòng)。
  • Yolov5-l6
    Pretrain | PyTorch
    Yolo V5建立在先前 YOLO 版本成功的基礎上(shàng),并引入了(le)新功能(néng)和(hé)改進,能(néng)夠快(kuài)速、準确且易于使用(yòng),Yolo V5已成爲各種對(duì)象檢測、實例分割和(hé)圖像分類任務的絕佳選擇。現(xiàn)Yolov5l6(76.8M 參數)已支持在太初卡訓練(基于PyTorch框架)使用(yòng)。
  • Yolov5-l6
    Inference
    Yolo V5建立在先前 YOLO 版本成功的基礎上(shàng),并引入了(le)新功能(néng)和(hé)改進,能(néng)夠快(kuài)速、準确且易于使用(yòng),Yolo V5已成爲各種對(duì)象檢測、實例分割和(hé)圖像分類任務的絕佳選擇。現(xiàn)Yolov5l6(76.8M 參數)已支持在太初卡推理(lǐ)使用(yòng)。
語音(yīn)
相關模型數:
  • Wav2Vec 2.0-base
    Pretrain | PyTorch
    Wav2vec使用(yòng)自(zì)監督的訓練方式從(cóng)未标記的訓練數據中訓練獲得語音(yīn)識别的能(néng)力,能(néng)夠支持多種語言識别。現(xiàn)Wav2Vec-2.0-base已支持在太初卡訓練(基于PyTorch框架)使用(yòng)。
  • Wav2Vec 2.0-base
    Inference
    Wav2vec使用(yòng)自(zì)監督的訓練方式從(cóng)未标記的訓練數據中訓練獲得語音(yīn)識别的能(néng)力,能(néng)夠支持多種語言識别。現(xiàn)Wav2Vec-2.0-base已支持在太初卡推理(lǐ)使用(yòng)。
NLP
相關模型數:
  • BERT-Base
    Pretrain | PyTorch
    BERT(Bidirectional Encoder Representation from Transformers)是2018年10月由Google AI研究院提出的一種預訓練模型。現(xiàn)BERT-Base已支持在太初卡訓練(基于PyTorch框架)使用(yòng)。
  • BERT-Base
    Inference
    BERT(Bidirectional Encoder Representation from Transformers)是2018年10月由Google AI研究院提出的一種預訓練模型。現(xiàn)BERT-Base已支持在太初卡推理(lǐ)使用(yòng)。
抱歉,沒有找到(dào)“xxx”相關的結果,請(qǐng)嘗試其他(tā)搜索詞

申請(qǐng)試用(yòng)

完成下(xià)方表格填寫後,太初技術專家會(huì)在審核初步通過後與您聯系。如果最終完成審核,您可以訪問太初線上(shàng)環境體驗太初加速卡的性能(néng)。

請(qǐng)填寫下(xià)表 我們将盡快(kuài)與您聯系

完成下(xià)方表格填寫後,太初技術專家會(huì)在審核初步通過後與您聯系。如果最終完成審核,您可以訪問太初線上(shàng)環境體驗太初加速卡的性能(néng)。