懒猫微服进阶心得(二):一台机器跑三套 Docker?深入解析懒猫容器的共存机制(上)

本文仅代表个人视角对懒猫 Docker 的拆解分析,内容为基于现象的倒推推测,不代表懒猫官方实现方式。

拿到任何 NAS 的第一件事是开启 SSH 功能,第二步就是用 Docker 启动容器。

懒猫微服这个 docker 还不太一样,一个有三个 Docker:

docker : 运行系统组件

pg-docker: 普通的 docker,让我们拿来玩

lzc-docker:运行懒猫商店的 docker

三套 Docker 引擎初探

我们先来看看这三套 docker 引擎跑了些什么,从 ps 看起:

阅读更多

懒猫微服进阶心得(三):一台机器跑三套 Docker?深入解析懒猫容器的共存机制(下)

在上一期里,我们剖析了懒猫微服原生的三套 Docker 共存方案,这次我们来看看怎么在懒猫微服上启动新的 dev-docker 引擎,既能拓展使用,但又不与现有环境相互污染。

核心思路

  1. 独立 daemon.json 指定专属数据目录 / Socket
  2. 一个包装脚本 dev-docker 让你照常敲 docker 命令
  3. 需要时随时启用,不用时一条命令即卸载

目录规划

我目前是在 root 目录下新建了一个 dev 目录,新的容器所有数据都在这个目录下。

1
2
3
4
5
6
.
├── dev/
│ ├── data/ # 镜像层、容器元数据
│ ├── exec/ # 运行时文件
│ └── daemon.json
└── dev-docker # 包装脚本,照样敲 `docker`
阅读更多

懒猫微服进阶心得(四):每次重启都丢配置?用 systemctl --user 自动装回环境!

在懒猫微服中,为了防止用户误操作破坏系统,默认启用了“重启还原机制”——每次重启都会还原大部分系统改动。不过,用户主目录的数据是保留的(例如 /root/),这就给我们留下了一条生路。

以往每次重启后,我都要手动重新安装 htopsudohttpie 等工具,重复操作实在麻烦。之前在 VIP 群里沟通过能否允许使用 systemctl 自启脚本,现在终于支持了 systemctl --user 的开机启动功能,第一时间来体验一下!


💻 安装脚本 init.sh

我们把需要安装的软件统一写进一个脚本,只安装未安装的部分,避免重复浪费时间。同时也支持远程安装一些工具,例如 superfile

阅读更多

懒猫微服进阶心得(五):使用懒猫微服做Ventoy启动盘

由于经常给别人装系统,所以经常做了一个多合一的系统盘。这今年基本都没用过 windows 了,都是 MacOS + Linux 的组合。但是 Ventoy 本身不支持 MacOS,以前是用 Windows 虚拟机来做这个事情,把 USB 直通进去再烧录。但是最近实在不想碰 Windows,所以想着是不是能在懒猫微服上做这个操作。

image-20250531145017064

下载并解压 Ventoy

1
2
3
4
wget https://github.com/ventoy/Ventoy/releases/download/v1.1.05/ventoy-1.1.05-linux.tar.gz
tar zxvf ventoy-1.1.05-linux.tar.gz
cd ventoy-1.1.05/
./VentoyWeb.sh
阅读更多

懒猫微服进阶心得(六):以纸砚双拼为例,快速移植纯前端项目到懒猫微服

之前移植了一款颜值极高的纸砚双拼,想着纯前端类的软件应该都是一样的操作,所以把操作记录下来,方便以后复习查看,也相当于一个教程吧。

image-20250531195827292

对于这种场景来说,前端项目开发完成后,我们将构建好的静态页面部署到服务器上。借助 Docker 和 Nginx,可以实现一套轻量、快速、可移植的部署方式,特别适合懒猫微服这种容器化的环境,也很适合日常调试测试使用。

下面将手把手教你如何打包一个 Vue 或 React 项目,并通过 Docker + Nginx 构建一个可复用的前端部署容器镜像,然后就可以把这个部署到懒猫微服删,当然也适用于各种 Linux + Docker 环境。


1 · 准备目录结构

纸砚双拼是 Vue 的项目,所以直接执行这个命令打包

1
2
npm i
npm run build

打包完成后,项目根目录下会生成一个 dist/ 文件夹,里面包含:

  • index.html
  • 静态 JS、CSS 资源
  • 图片等其他引用资源

基本所有前端工程化的流程都是部署这个 dist/静态目录。

阅读更多

懒猫的镜像仓库

这几年国内访问 Dockerhub 总有类似的问题,所以很多情况都建议自建 docker 仓库,比如 Habor,Nexus 或者。毕竟 GFW 的花样我们想不到。

云厂商的 ECR。但是对于个人玩家或者爱好者来说这一套实在是太重太难以维护了,可能也就是这个原因,懒猫微服也提供了镜像仓库的和本地仓库的功能。

先说镜像仓库,就是从懒猫微服的服务器上先拉 Docker image,然后再推到自己的 registry。这一步骤通常由出海链路比较好的机器来完成。

懒猫镜像同步功能

懒猫提供了便捷的镜像同步命令:

1
lzc-cli appstore copy-image cloudsmithy/lazycat-nav

执行之后就可以看到镜像仓库,registry.lazycat.cloud 这个地址。

阅读更多

懒猫微服进阶心得(九):商店 App 如何接管 Docker 引擎?

在之前的内容中,我们提到过懒猫微服采用三套独立的 Docker 环境来隔离系统组件、Playground Docker 与商店 App 的 Docker 实例。那么问题来了:如何让商店中上架的 App 操作 Playground 中的 Docker 引擎?

答案是:通过挂载 docker.sock 文件来实现跨容器控制。

所以我们可以在商店的 APP 中操作 playground docker,其实也就是 Docker 面板或者轻量 Docker 面板做的事情。

为什么不操作其他两个 Docker 引擎?

  • 系统组件 Docker 无需干预,重启之后可以复原。
  • 应用商店有自己的生命周期,也无需干预。

一、在 build.yml 中挂载 Playground 路径

首先,在打包配置 build.yml 中新增 services 字段,用于将宿主机中的 /data/playground 挂载到容器内部:

阅读更多

CoCo AI APP 初体验:开启智能知识管理新篇章

近日,极限科技的 Coco AI 正式发布。作为一款完全开源、跨平台的统一 AI 搜索与效率工具,Coco AI 能够无缝连接并搜索多种数据源,包括本地应用程序、文件以及云端平台如 Google Drive、Notion、语雀和 Hugo 等。通过集成 DeepSeek 等先进的大模型,Coco AI 不仅实现了智能化的个人知识库管理,还特别注重用户隐私,支持私有部署,帮助用户更快速、更智能地访问和管理信息。

Coco AI

本次发布的是 Coco AI 的首个预览版本,目前支持 MacOS 12 及以上操作系统。无论你是知识管理爱好者还是效率工具控,Coco AI 都值得一试。

Coco AI 分为客户端(APP)和服务端(Server),目前客户端仅提供 MacOS 版本,而服务端则支持 MacOS 和 Linux。今天,我们将重点体验客户端的使用。

下载与安装

首先,从项目主页或 GitHub 仓库下载 Coco AI 的安装包。安装过程简单直观,只需几步即可完成。

下载安装

阅读更多

Coco-AI 接入 Google Drive 数据源全流程指南(图形化界面演示)

Coco-AI 最早版本就内置了对 Google Drive 的访问能力。如今,借助图形化配置界面,我们终于可以一键完成授权接入,在 AI 数据处理流程中直接使用 Google Drive 中的视频、文档等文件作为数据源。

本文将完整演示如何通过 Google OAuth2 授权机制,让 Coco-AI 成功对接 Google Drive,并将其中的视频等文件作为可访问的数据源导入系统。相比以往繁琐的手工步骤,现在全程图形化,几乎零代码,极大地降低了使用门槛。


一、准备工作:创建 Google OAuth2 客户端

首先,我们需要在 Google Cloud Console 中配置一个 OAuth2 客户端,用于获取用户授权,并访问其 Google Drive 数据。

参考官方文档(虽然略显简略):

阅读更多

打造智能语料库:通过Coco AI Server 实现 Notion 笔记 RAG 检索功能

本文将详细介绍如何将 Notion 作为语料库,部署 Coco Server 的 RAG(Retrieval-Augmented Generation)功能。我们将使用 Easysearch 作为语料库存储 Notion 素材,并通过 ollama 进行 LLM 推理。

1. 环境准备

1.1 启动 Easysearch

首先,启动 Easysearch 作为语料库,用于存储 Notion 的素材。

1.2 启动 ollama

接下来,启动 ollama,用于进行 LLM 推理。

1.3 启动 CoCo Server

启动 CoCo Server,默认端口为 9000。

1
OLLAMA_MODEL=deepseek-r1:1.5b ES_PASSWORD=45ff432a5428ade77c7b   ./coco-mac-arm64

CoCo Server 启动界面

阅读更多