CentOS LXD 容器 - 預設使用者名稱是什麼?

我正在用 CentOS 容器做實驗。我選擇了 LXD 容器而不是 Docker,一方面是因為我從未使用過 LXD 容器,另一方面是因為我沒有看到 CentOS 的「官方」Docker 映像檔(有一個但已被棄用)。LXD 容器是在 Container Station 的預設應用程式範本中。

但 CentOS 的預設使用者名稱和密碼是什麼?完全找不到相關設定。現在我有這個 Linux shell 可用,但卻無法登入。

@NA9D

我想這就是你遇到的問題嗎?

其實,你可以點擊右上角的「執行」按鈕來進入 CentOS 控制台。

另外,你也可以在這個控制台中使用「passwd」指令來更改你的密碼。

謝謝你。這樣做有效了。

以下是我的問題,也許你可以幫我。

我正在嘗試尋找 Linux 系統安裝的掛載點裝置。為什麼?因為我實際上想要用另一個在容器中運行的軟體覆蓋它。但我找不到作業系統實際儲存的位置。

lsblk 指令會顯示所有的磁碟卷及其掛載點。但當我執行這個指令時,整個 NAS 的磁碟卷都被暴露出來(這不是我想要的),而且沒有根目錄「/」的掛載點:

[root@centos-1 ~]# lsblk
NAME        MAJ:MIN RM   SIZE RO TYPE  MOUNTPOINTS
loop0         7:0    0    64M  1 loop  
sda           8:0    0   1.8T  0 disk  
├─sda1        8:1    0 517.7M  0 part  
│ └─md9       9:9    0 517.6M  0 raid1 
├─sda2        8:2    0 517.7M  0 part  
├─sda3        8:3    0   1.8T  0 part  
├─sda4        8:4    0 526.6M  0 part  
│ └─md13      9:13   0 448.1M  0 raid1 
└─sda5        8:5    0  31.5G  0 part  
  └─md322     9:322  0  30.4G  0 raid1 [SWAP]
sdb           8:16   0   1.8T  0 disk  
├─sdb1        8:17   0 517.7M  0 part  
│ └─md9       9:9    0 517.6M  0 raid1 
├─sdb2        8:18   0 517.7M  0 part  
├─sdb3        8:19   0   1.8T  0 part  
├─sdb4        8:20   0 526.6M  0 part  
│ └─md13      9:13   0 448.1M  0 raid1 
└─sdb5        8:21   0  31.5G  0 part  
  └─md322     9:322  0  30.4G  0 raid1 [SWAP]
sdc           8:32   0   9.1T  0 disk  
├─sdc1        8:33   0 517.7M  0 part  
│ └─md9       9:9    0 517.6M  0 raid1 
├─sdc2        8:34   0 517.7M  0 part  
├─sdc3        8:35   0   9.1T  0 part  
├─sdc4        8:36   0 526.8M  0 part  
│ └─md13      9:13   0 448.1M  0 raid1 
└─sdc5        8:37   0  31.5G  0 part  
  └─md322     9:322  0  30.4G  0 raid1 [SWAP]
sdd           8:48   0   9.1T  0 disk  
├─sdd1        8:49   0 517.7M  0 part  
│ └─md9       9:9    0 517.6M  0 raid1 
├─sdd2        8:50   0 517.7M  0 part  
├─sdd3        8:51   0   9.1T  0 part  
├─sdd4        8:52   0 526.8M  0 part  
│ └─md13      9:13   0 448.1M  0 raid1 
└─sdd5        8:53   0  31.5G  0 part  
  └─md322     9:322  0  30.4G  0 raid1 [SWAP]
sde           8:64   0   9.1T  0 disk  
├─sde1        8:65   0 517.7M  0 part  
│ └─md9       9:9    0 517.6M  0 raid1 
├─sde2        8:66   0 517.7M  0 part  
├─sde3        8:67   0   9.1T  0 part  
├─sde4        8:68   0 526.8M  0 part  
│ └─md13      9:13   0 448.1M  0 raid1 
└─sde5        8:69   0  31.5G  0 part  
  └─md322     9:322  0  30.4G  0 raid1 [SWAP]
sdf           8:80   0   9.1T  0 disk  
├─sdf1        8:81   0 517.7M  0 part  
│ └─md9       9:9    0 517.6M  0 raid1 
├─sdf2        8:82   0 517.7M  0 part  
├─sdf3        8:83   0   9.1T  0 part  
├─sdf4        8:84   0 526.8M  0 part  
│ └─md13      9:13   0 448.1M  0 raid1 
└─sdf5        8:85   0  31.5G  0 part  
  └─md322     9:322  0  30.4G  0 raid1 [SWAP]
sdg           8:96   1   1.8T  0 disk  
├─sdg1        8:97   1 517.7M  0 part  
│ └─md9       9:9    0 517.6M  0 raid1 
├─sdg2        8:98   1 517.7M  0 part  
├─sdg3        8:99   1   1.8T  0 part  
├─sdg4        8:100  1 526.6M  0 part  
│ └─md13      9:13   0 448.1M  0 raid1 
└─sdg5        8:101  1  31.5G  0 part  
  └─md322     9:322  0  30.4G  0 raid1 [SWAP]
sdh           8:112  1 931.5G  0 disk  
├─sdh1        8:113  1 517.7M  0 part  
│ └─md9       9:9    0 517.6M  0 raid1 
├─sdh2        8:114  1 517.7M  0 part  
├─sdh3        8:115  1   898G  0 part  
├─sdh4        8:116  1 526.2M  0 part  
│ └─md13      9:13   0 448.1M  0 raid1 
└─sdh5        8:117  1  31.5G  0 part  
  └─md322     9:322  0  30.4G  0 raid1 [SWAP]
sdi           8:128  0 372.6G  0 disk  
├─sdi1        8:129  0   200M  0 part  
└─sdi2        8:130  0 372.3G  0 part  
sdj           8:144  1   4.6G  0 disk  
├─sdj1        8:145  1   5.1M  0 part  
├─sdj2        8:146  1 488.4M  0 part  
├─sdj3        8:147  1 488.4M  0 part  
├─sdj4        8:148  1     1K  0 part  
├─sdj5        8:149  1   8.1M  0 part  
├─sdj6        8:150  1   8.5M  0 part  
└─sdj7        8:151  1   2.7G  0 part  
sdk           8:160  0  10.9T  0 disk  
└─sdk1        8:161  0  10.9T  0 part  
sdl           8:176  0   1.8T  0 disk  
└─sdl1        8:177  0   1.8T  0 part  
nbd0         43:0    0     0B  0 disk  
nbd1         43:32   0     0B  0 disk  
nbd2         43:64   0     0B  0 disk  
nbd3         43:96   0     0B  0 disk  
nbd4         43:128  0     0B  0 disk  
nbd5         43:160  0     0B  0 disk  
nbd6         43:192  0     0B  0 disk  
nbd7         43:224  0     0B  0 disk  
fbsnap0     250:0    0     0B  0 disk  
fbsnap1     250:1    0     0B  0 disk  
fbsnap2     250:2    0     0B  0 disk  
fbsnap3     250:3    0     0B  0 disk  
fbsnap4     250:4    0     0B  0 disk  
fbsnap5     250:5    0     0B  0 disk  
fbsnap6     250:6    0     0B  0 disk  
fbsnap7     250:7    0     0B  0 disk  
fbdisk0     251:0    0     0B  0 disk  
fbdisk1     251:1    0     0B  0 disk  
fbdisk2     251:2    0     0B  0 disk  
fbdisk3     251:3    0     0B  0 disk  
fbdisk4     251:4    0     0B  0 disk  
fbdisk5     251:5    0     0B  0 disk  
fbdisk6     251:6    0     0B  0 disk  
fbdisk7     251:7    0     0B  0 disk  
nvme1n1     259:0    0   1.8T  0 disk  
├─nvme1n1p1 259:1    0 517.7M  0 part  
│ └─md9       9:9    0 517.6M  0 raid1 
├─nvme1n1p2 259:2    0 517.7M  0 part  
├─nvme1n1p3 259:3    0   1.8T  0 part  
├─nvme1n1p4 259:4    0 526.6M  0 part  
│ └─md13      9:13   0 448.1M  0 raid1 
└─nvme1n1p5 259:5    0  31.5G  0 part  
  └─md321     9:321  0  30.4G  0 raid1 [SWAP]
nvme0n1     259:6    0   1.8T  0 disk  [root@centos-1 ~]#

此外,我在 Alpine 容器中能找到掛載點。我把新軟體複製過去並執行了指令 echo "b" > /proc/sysrq-trigger,本來預期這會重啟容器裡的 Linux 實例。結果不是,它重啟了整個 NAS。這非常糟糕,因為很明顯容器的隔離性遠比預期的要差。最後,我做的努力沒有效果,因為 Alpine 安裝又像什麼都沒發生一樣重新啟動了……

我很擔心這些 Linux shell 會暴露整個 NAS。

哦,我錯過了你的訊息。

你有啟用「–privileged」設定嗎?因為你說「它重啟了整個 NAS」,我猜這就是根本原因。

在 Alpine 中,我認為它始終是特權模式。

但無論如何——嘗試重啟容器絕不應該導致 NAS 重新啟動。

此外,特權模式應該會啟用容器中的 root 使用者,但我質疑這樣是否能讓容器獲得對 NAS 的 root 存取權。對 NAS 檔案系統的存取應僅限於已指定的映射儲存空間。這正是容器的核心目的。

如果你沒有啟用特權模式,在 Container Station 內執行 Docker 及其他類似程式,並在其中執行指令,並不會導致 QNAP QTS 系統重啟;這一點已經經過我自己的測試確認。

你先前提到的情況,很可能是因為啟用了特權模式。這些都是 Docker 技術與設計的一部分,你也可以和在一般伺服器上的部署行為做比較。