导航
{{ item.name }}
{{item.name}}
学习路径
正在研究
系统开发
正在学习
关于我
学习路径
正在研究
系统开发
正在学习
关于我
搜索
登录
自动部署开源AI模型到生产环境:Scikit-learn、XGBoost、LightGBM、和PySpark
阿里云测试模型
huggingface模型下载
Ollama
Llama2
ChatGML
pro-chat
Scaling Laws
如何解决llm的并发问题?
如何理解llm的并发?
流式输出
OpenAI api使用介绍
使用ollama快速部署开源大模型
jupyter中使用Ollama+langchain构建RAG
GraphRAG实战(openai+langchain+neo4j)
从零搭建大模型(一): 架构(architecture)
从零搭建大模型(二): 预训练(pretraining)
基因组大模型概述
使用 🤗 Transformers 加载支持流式输出的模型(如 ChatGLM、LLaMA、Mistral 等),并用 FastAPI + SSE (Server-Sent Events) 实现简化并行的流式推理系统
参考 OpenAI 官方的 GPT-2 GitHub 仓库,训练一个最小可运行、资源占用低的 demo 模型
完整的中文语言模型从头预训练(最小结构) + FastAPI SSE 多线程流式输出服务
大模型
思维导图
:
wangyang
:
联系作者
首页
云计算与数据挖掘
大模型
pro-chat
pro-chat
最后发布时间 :
2024-11-18 13:59:14
浏览量 :
https://platform.openai.com/docs/api-reference/chat/create
https://github.com/ant-design/pro-chat
ChatGML
Scaling Laws
登录评论