# GalaxyAIOS **Repository Path**: galaxyai/GalaxyAIOS ## Basic Information - **Project Name**: GalaxyAIOS - **Description**: No description available - **Primary Language**: Unknown - **License**: BSD-3-Clause - **Default Branch**: main - **Homepage**: None - **GVP Project**: No ## Statistics - **Stars**: 0 - **Forks**: 0 - **Created**: 2025-11-22 - **Last Updated**: 2026-02-13 ## Categories & Tags **Categories**: Uncategorized **Tags**: None ## README

GalaxyAI



#### 介绍 银河智能操作系统(GalaxyAIOS)围绕AI大模型技术构建,专为大模型应用全生命周期(部署、推理、迭代、运维)设计的专用操作系统,其核心价值是 “为大模型落地提供端到端的标准化支撑环境”,解决 “模型与硬件、场景与工具、安全与效率” 的协同难题,原生集成依赖管理、资源调度、模型服务、智能体和知识库等工具,针对主流AI框架(如PyTorch)和大模型推理引擎进行内核级、库级的深度优化,大幅降低部署和运维复杂度,实现“智能平权、解放创造力”的AI共生体,开启人机共生的新纪元: 1. 专用性:聚焦大模型推理场景,如针对模型服务的分布式算力调度、针对推理的低延迟优化; 2. 模型应用全生命周期覆盖:从模型管理到模型部署上线、升级迭代、安全运维,提供一站式支撑,避免企业拼接多工具的 “碎片化” 困境; 3. 生态兼容性:既兼容开源生态(如 Hugging Face 模型库、GitHub 社区工具),也支持商业生态(如厂商闭源模型、企业智能体应用商店),平衡开放与安全。 #### 软件架构 核心构成:三层架构支撑全流程能力 1. 内核层:基于 Linux 内核扩展 AI 专用模块,支持异构计算(支持 GPU/TPU/NPU )、模型运行工具链(GPU驱动/CUDA/pytorch)、大模型内存和存储管理等 2. 平台层:集成推理引擎/微调框架,提供经过认证的模型库,包含性能优化(TensorRT/ONNX 加速)、RAG/向量数据库/langchain/MCP等组件和SDK,支持容器部署和云边部署、模型可观测等能力 3. 应用层:提供主流的智能体/工作流工具和应用,AI应用市场中包括ComfyUI/dify/知识库等常见的主流应用。 ### 核心特性 - **分布式算力整合**:通过去中心化网络协议整合闲置算力资源形成分布式AI算力池,用户贡献的GPU资源可参与算力交易市场的流通,实现“算力即资产”的生态闭环。 - **全栈开源的智能底座**:提供统一的操作系统内核和开发框架、编排调度系统、开发环境,支持k8s、Ray、Docker,助力AI应用快速集成开发。 - **性能优化的推理引擎**:支持经过优化的多推理引擎,如llama.cpp、vLLM、Trition、BentoML等,支持Transformer、Diffusion、MOE、Lora等主流的算法架构。 - **包含丰富的开源模型**:模型市场预集成开源模型(如Llama3、Qwen、DeepSeek、SD、FLUX、Whisper等),支持广泛的模型,从大语言模型、文生图扩散模型、STT 与 TTS 语音模型、多模态模型等,支持百亿至万亿级参数模型。 - **完善的开源工具链**:集成Langchain、dify、RagFlow、Milvus等工具链和中间件,可帮助开发者极大提高AI应用开发效率。 - **多智能体协同引擎**:通过MCP协议实现自然语言处理(NLP)、计算机视觉(CV)、语音交互等能力的协同调用。例如,文本生成模型可联动文生图模型完成系列漫画的制作。 - **广泛的兼容性**:支持Apple Mac、Windows 和 Linux不同的OS和NVIDIA、AMD GPU,轻松添加异构 GPU 资源。 - **OpenAI 兼容 API**:提供兼容 OpenAI 标准的 API 服务。 - **用户和 API 密钥管理**:简化用户和 API 密钥的管理流程。 ### 主要特点 - **去中心化**:通过去中心化协议连接全球用户的计算设备,构建一个无需依赖中心服务器的世界超级AI计算机 - **效益优势**:允许用户贡献自己的闲置计算资源换取奖励,同时可降低使用AI模型的成本 - **AI神兽**:构建普惠的超级AI智能体,实现智能平权,共享AI时代红利 - **激励机制**:基于积分的奖励机制,开发者 运营者 用户可以和项目共同成长(POC机制),激励用户积极参与项目贡献和建设 - **开源开放**:鼓励社区成员参与项目的开发、维护和发展,形成活跃且持续进化的开源生态系统,开放理念共创共建价值网络 ## 安装 ### Windows 官网下载wsl镜像: [GalaxyAI](https://www.aiverse.vip/GalaxyAI/GalaxyAIOS_V0.1_win.tgz) ### 其他安装方式 有关手动安装、Docker 安装或详细配置选项,请参考帮助手册。 ## 新手入门 1. 加入算力网络 ```bash GalaxyAI join ``` 2. 在浏览器中打开 `http://127.0.0.1:12888`,使用"admin/admin"登录 ## 平台支持 - [x] Linux - [x] Windows ## 加速框架支持 - [x] NVIDIA CUDA ([Compute Capability](https://developer.nvidia.com/cuda-gpus) 6.0 以上) 我们计划在未来的版本中支持以下加速框架: - [x] AMD ROCm - [ ] 海光 DCU - [ ] 昇腾 CANN - [ ] Intel oneAPI - [ ] Apple Metal (M 系列芯片) ## 模型支持 支持从以下来源部署模型: 1. [Hugging Face](https://huggingface.co/) 2. [ModelScope](https://modelscope.cn/) 3. 本地文件路径 ### 示例模型 | **类别** | **模型** | | ---------------------- | ------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------ | | **大语言模型(LLM)** | [Qwen](https://huggingface.co/models?search=Qwen/Qwen), [LLaMA](https://huggingface.co/meta-llama), [Mistral](https://huggingface.co/mistralai), [Deepseek](https://huggingface.co/models?search=deepseek-ai/deepseek), [Phi](https://huggingface.co/models?search=microsoft/phi), [Yi](https://huggingface.co/models?search=01-ai/Yi) | | **多模态模型(VLM)** | [Llama3.2-Vision](https://huggingface.co/models?pipeline_tag=image-text-to-text&search=llama3.2), [Pixtral](https://huggingface.co/models?search=pixtral) , [Qwen2-VL](https://huggingface.co/models?search=Qwen/Qwen2-VL), [LLaVA](https://huggingface.co/models?search=llava), [InternVL2.5](https://huggingface.co/models?search=internvl2_5) | | **Diffusion 扩散模型** | [Stable Diffusion](https://huggingface.co/models?search=stable-diffusion), [FLUX](https://huggingface.co/models?search=flux) | **语音模型** | [Whisper](https://huggingface.co/models?search=Systran/faster) (speech-to-text), [CosyVoice](https://huggingface.co/models?search=FunAudioLLM/CosyVoice) (text-to-speech) | ## OpenAI 兼容 API `/v1-openai` 路径提供以下 OpenAI 兼容 API: - [x] [List Models](https://platform.openai.com/docs/api-reference/models/list) - [x] [Create Completion](https://platform.openai.com/docs/api-reference/completions/create) - [x] [Create Chat Completion](https://platform.openai.com/docs/api-reference/chat/create) - [x] [Create Embeddings](https://platform.openai.com/docs/api-reference/embeddings/create) - [x] [Create Image](https://platform.openai.com/docs/api-reference/images/create) - [x] [Create Image Edit](https://platform.openai.com/docs/api-reference/images/createEdit) - [x] [Create Speech](https://platform.openai.com/docs/api-reference/audio/createSpeech) - [x] [Create Transcription](https://platform.openai.com/docs/api-reference/audio/createTranscription) 例如,你可以使用官方的 [OpenAI Python API 库](https://github.com/openai/openai-python)来调用 API: ```python from openai import OpenAI client = OpenAI(base_url="http://myserver/v1-openai", api_key="myapikey") completion = client.chat.completions.create( model="llama3.2", messages=[ {"role": "system", "content": "You are a helpful assistant."}, {"role": "user", "content": "Hello!"} ] ) print(completion.choices[0].message) ``` 用户可以在 UI 中生成自己的 API 密钥。 ## 文档 完整文档请参见官方文档。 ## 参与贡献 欢迎参与贡献代码:https://github.com/GalaxyAI888/GalaxyAIOS.git ## 加入社区 欢迎加入社区群。