CentOS LXD Container - Nama Pengguna Default?

Saya sedang melakukan eksperimen dengan container CentOS. Saya memilih container LXD dibandingkan Docker karena, pertama, saya belum pernah menggunakan LXD Container, dan kedua, saya tidak melihat image Docker “resmi” untuk CentOS (ada satu, tapi sudah tidak digunakan lagi). LXD Container tersedia di template aplikasi default di Container Station.

Tapi, apa username dan password default untuk CentOS? Tidak ada pengaturan untuk ini di mana pun. Jadi sekarang saya punya shell Linux yang tersedia, tapi tidak bisa masuk.

Hai @NA9D

Saya rasa ini masalah yang sedang Anda hadapi?

Sebenarnya, Anda bisa klik tombol “Execute” di pojok kanan atas untuk mengakses konsol CentOS.

Selain itu, Anda bisa menggunakan perintah “passwd” untuk mengubah kata sandi Anda di konsol ini.

Terima kasih. Itu berhasil.

Berikut adalah masalah saya dan mungkin Anda bisa membantu saya.

Saya sedang mencoba mencari perangkat mount point untuk instalasi sistem Linux. Kenapa? Karena saya sebenarnya ingin menimpa ini dengan perangkat lunak lain yang akan berjalan di dalam container. Tapi saya tidak bisa menemukan di mana OS sebenarnya disimpan.

Perintah lsblk menunjukkan semua volume dan mount point-nya. Namun, ketika saya menjalankan ini, seluruh volume NAS diekspos (yang bukan yang saya inginkan) dan tidak ada mount point root “/” :

[root@centos-1 ~]# lsblk
NAME        MAJ:MIN RM   SIZE RO TYPE  MOUNTPOINTS
loop0         7:0    0    64M  1 loop  
sda           8:0    0   1.8T  0 disk  
├─sda1        8:1    0 517.7M  0 part  
│ └─md9       9:9    0 517.6M  0 raid1 
├─sda2        8:2    0 517.7M  0 part  
├─sda3        8:3    0   1.8T  0 part  
├─sda4        8:4    0 526.6M  0 part  
│ └─md13      9:13   0 448.1M  0 raid1 
└─sda5        8:5    0  31.5G  0 part  
  └─md322     9:322  0  30.4G  0 raid1 [SWAP]
sdb           8:16   0   1.8T  0 disk  
├─sdb1        8:17   0 517.7M  0 part  
│ └─md9       9:9    0 517.6M  0 raid1 
├─sdb2        8:18   0 517.7M  0 part  
├─sdb3        8:19   0   1.8T  0 part  
├─sdb4        8:20   0 526.6M  0 part  
│ └─md13      9:13   0 448.1M  0 raid1 
└─sdb5        8:21   0  31.5G  0 part  
  └─md322     9:322  0  30.4G  0 raid1 [SWAP]
sdc           8:32   0   9.1T  0 disk  
├─sdc1        8:33   0 517.7M  0 part  
│ └─md9       9:9    0 517.6M  0 raid1 
├─sdc2        8:34   0 517.7M  0 part  
├─sdc3        8:35   0   9.1T  0 part  
├─sdc4        8:36   0 526.8M  0 part  
│ └─md13      9:13   0 448.1M  0 raid1 
└─sdc5        8:37   0  31.5G  0 part  
  └─md322     9:322  0  30.4G  0 raid1 [SWAP]
sdd           8:48   0   9.1T  0 disk  
├─sdd1        8:49   0 517.7M  0 part  
│ └─md9       9:9    0 517.6M  0 raid1 
├─sdd2        8:50   0 517.7M  0 part  
├─sdd3        8:51   0   9.1T  0 part  
├─sdd4        8:52   0 526.8M  0 part  
│ └─md13      9:13   0 448.1M  0 raid1 
└─sdd5        8:53   0  31.5G  0 part  
  └─md322     9:322  0  30.4G  0 raid1 [SWAP]
sde           8:64   0   9.1T  0 disk  
├─sde1        8:65   0 517.7M  0 part  
│ └─md9       9:9    0 517.6M  0 raid1 
├─sde2        8:66   0 517.7M  0 part  
├─sde3        8:67   0   9.1T  0 part  
├─sde4        8:68   0 526.8M  0 part  
│ └─md13      9:13   0 448.1M  0 raid1 
└─sde5        8:69   0  31.5G  0 part  
  └─md322     9:322  0  30.4G  0 raid1 [SWAP]
sdf           8:80   0   9.1T  0 disk  
├─sdf1        8:81   0 517.7M  0 part  
│ └─md9       9:9    0 517.6M  0 raid1 
├─sdf2        8:82   0 517.7M  0 part  
├─sdf3        8:83   0   9.1T  0 part  
├─sdf4        8:84   0 526.8M  0 part  
│ └─md13      9:13   0 448.1M  0 raid1 
└─sdf5        8:85   0  31.5G  0 part  
  └─md322     9:322  0  30.4G  0 raid1 [SWAP]
sdg           8:96   1   1.8T  0 disk  
├─sdg1        8:97   1 517.7M  0 part  
│ └─md9       9:9    0 517.6M  0 raid1 
├─sdg2        8:98   1 517.7M  0 part  
├─sdg3        8:99   1   1.8T  0 part  
├─sdg4        8:100  1 526.6M  0 part  
│ └─md13      9:13   0 448.1M  0 raid1 
└─sdg5        8:101  1  31.5G  0 part  
  └─md322     9:322  0  30.4G  0 raid1 [SWAP]
sdh           8:112  1 931.5G  0 disk  
├─sdh1        8:113  1 517.7M  0 part  
│ └─md9       9:9    0 517.6M  0 raid1 
├─sdh2        8:114  1 517.7M  0 part  
├─sdh3        8:115  1   898G  0 part  
├─sdh4        8:116  1 526.2M  0 part  
│ └─md13      9:13   0 448.1M  0 raid1 
└─sdh5        8:117  1  31.5G  0 part  
  └─md322     9:322  0  30.4G  0 raid1 [SWAP]
sdi           8:128  0 372.6G  0 disk  
├─sdi1        8:129  0   200M  0 part  
└─sdi2        8:130  0 372.3G  0 part  
sdj           8:144  1   4.6G  0 disk  
├─sdj1        8:145  1   5.1M  0 part  
├─sdj2        8:146  1 488.4M  0 part  
├─sdj3        8:147  1 488.4M  0 part  
├─sdj4        8:148  1     1K  0 part  
├─sdj5        8:149  1   8.1M  0 part  
├─sdj6        8:150  1   8.5M  0 part  
└─sdj7        8:151  1   2.7G  0 part  
sdk           8:160  0  10.9T  0 disk  
└─sdk1        8:161  0  10.9T  0 part  
sdl           8:176  0   1.8T  0 disk  
└─sdl1        8:177  0   1.8T  0 part  
nbd0         43:0    0     0B  0 disk  
nbd1         43:32   0     0B  0 disk  
nbd2         43:64   0     0B  0 disk  
nbd3         43:96   0     0B  0 disk  
nbd4         43:128  0     0B  0 disk  
nbd5         43:160  0     0B  0 disk  
nbd6         43:192  0     0B  0 disk  
nbd7         43:224  0     0B  0 disk  
fbsnap0     250:0    0     0B  0 disk  
fbsnap1     250:1    0     0B  0 disk  
fbsnap2     250:2    0     0B  0 disk  
fbsnap3     250:3    0     0B  0 disk  
fbsnap4     250:4    0     0B  0 disk  
fbsnap5     250:5    0     0B  0 disk  
fbsnap6     250:6    0     0B  0 disk  
fbsnap7     250:7    0     0B  0 disk  
fbdisk0     251:0    0     0B  0 disk  
fbdisk1     251:1    0     0B  0 disk  
fbdisk2     251:2    0     0B  0 disk  
fbdisk3     251:3    0     0B  0 disk  
fbdisk4     251:4    0     0B  0 disk  
fbdisk5     251:5    0     0B  0 disk  
fbdisk6     251:6    0     0B  0 disk  
fbdisk7     251:7    0     0B  0 disk  
nvme1n1     259:0    0   1.8T  0 disk  
├─nvme1n1p1 259:1    0 517.7M  0 part  
│ └─md9       9:9    0 517.6M  0 raid1 
├─nvme1n1p2 259:2    0 517.7M  0 part  
├─nvme1n1p3 259:3    0   1.8T  0 part  
├─nvme1n1p4 259:4    0 526.6M  0 part  
│ └─md13      9:13   0 448.1M  0 raid1 
└─nvme1n1p5 259:5    0  31.5G  0 part  
  └─md321     9:321  0  30.4G  0 raid1 [SWAP]
nvme0n1     259:6    0   1.8T  0 disk  [root@centos-1 ~]#

Selain itu, saya berhasil di container Alpine menemukan mount point. Saya menyalin perangkat lunak baru dan menjalankan perintah, echo "b" > /proc/sysrq-trigger dengan harapan ini akan me-reboot instance linux di container. Tidak, ini malah me-reboot seluruh NAS. Ini sangat buruk karena ternyata container tidak terisolasi seperti yang diharapkan. Akhirnya, upaya saya tidak berhasil karena instalasi Alpine kembali berjalan seperti tidak terjadi apa-apa…

Saya khawatir shell Linux ini mengekspos seluruh NAS.

Oh, saya melewatkan pesanmu.

Apakah kamu sudah mengaktifkan pengaturan “–privileged”? Karena kamu bilang “itu me-reboot seluruh NAS”, saya rasa itu penyebab utamanya.

Saya percaya bahwa di Alpine selalu menggunakan mode privileged.

Dan tidak masalah—upaya untuk me-reboot container seharusnya TIDAK PERNAH me-reboot NAS, apa pun alasannya.

Selain itu, mode privileged seharusnya mengaktifkan pengguna root di dalam container, tetapi saya meragukan kemampuan untuk memberikan akses root ke NAS dari dalam container. Akses ke sistem file NAS seharusnya hanya diberikan melalui storage yang dipetakan dan sudah ditentukan. Itulah tujuan utama dari penggunaan container.

Jika Anda belum mengaktifkan mode privileged, menjalankan Docker dan program serupa lainnya di dalam Container Station serta mengeksekusi perintah di sana tidak akan menyebabkan sistem QNAP QTS melakukan restart; hal ini sudah saya konfirmasi melalui pengujian saya sendiri.

Situasi yang Anda sebutkan sebelumnya kemungkinan besar disebabkan oleh pengaktifan mode privileged. Semua ini merupakan bagian dari teknologi dan desain Docker; Anda juga dapat membandingkan perilakunya dengan deployment pada server biasa.