v2024.06.01
mlops平台相关:
修正内部服务ip范围
更新教程视频
支持pipeline任务优先级
nni超参搜索支持单机多进程和多机多进程两种形式
修正notebook ssh链接配置
notebook配置内外网时,模式使用url代理,而不是端口代理
数据集sdk去除load功能
watch组件只是supervisord管理进程
修复在celery worker中数据库连接失败的报错问题
修复微调添加出错后,平台数据库受影响的问题
添加用户登录时拷贝示例数据到个人目录
添加pipeline导出
支持k3s部署cube-studio
支持helm部署cube-studio
支持kubesphere部署cube-studio
优化边缘集群模式部署
添加最小化单机部署
添加pod计量计费区分不同集群
删除pipeline时,清理绑定的workflow
分布式任务支持gpu共享占用模式
修复管理员批量删除在线pod的功能
去除前端输出重复校验的问题
增加cuda 12.1的notebook,pipeline镜像
计量计费增加机器信息
升级hadoop客户端任务模板,支持hdfs,hadoop,spark,hive任务执行
升级大数据版本jupyter,支持hdfs,hadoop,spark,hive任务执行
添加datax-import任务模板,不使用json作为输入
升级ml推理镜像,支持输入输出信息显示
rstudio添加激活按钮
支持推理服务定时伸缩容
更改第四范式vgpu化能力
sqllab支持hive,presto,clickhouse sql对接
datax支持拉取clickhouse数据
推理服务支持jwt统一认证
支持label studio标注平台免登录
内部服务支持window应用
模型管理支持模型下载
数据集管理支持数据集预览
用户界面去除删除按钮
aihub模型市场相关:
增加aihub基础镜像版本
aihub支持对接hugging face
去除aihub原有前端界面,改为gradio
删除失效的aihub应用
gpt大模型相关:
aihub添加百川2,llama3,gemma,glm4等各类型的gpt大模型
完善deepspeed任务模板和示例
增加baichuan2,llama2,chatglm2,chatglm3,chatglm4,qwen2微调任务模板
支持大模型vllm推理和openai流式接口
添加llama-factory任务模板
智能聊天,支持结果可视化
修正私有知识库接收消息不全的问题
添加chatglm3,chatglm4,qwen2 微调全链路
aihub支持stable-cascade,sd3,sd video以及sd的其他模型
智能体支持aihub接口格式
智能体支持chatglm4和qwen2