Categories
por

Como configurar um raid de software para um servidor de ficheiros simples no ubuntu

Não pode simplesmente usar a opção de assistente manual ao escolher o disco na configuração do ubuntu?

momurda Eu configuro essas partições usando o assistente manual durante o instalador.

Há uma opção de raid de software no assistente de configuração do disco manual. Raid 10 é uma das opções. Depois permite escolher as partições de cada dispositivo de disco a adicionar ao md.

Se tiver essas 3 partições(/boot, /swap, /) em cada disco, faça md0 raid10 ponto de montagem /boot como ext4, md1 raid10 ponto de montagem /swap como swap, md2 raid10 ponto de montagem / como ext4

Tenho o SWAP e / configurados nos seus próprios RAIDs. Sempre que tentei RAID na partição de arranque, a instalação do GRUB falhou; pensei ter lido algures que o GRUB não gostava de ser instalado num RAID 10.

Só para tentar, rediz as minhas partições da forma que sugeriram, e o GRUB não vai instalar.

Que ISO/instalador está a utilizar?

O download padrão no ubuntu. com irá oferecer-lhe o ubuntu-18.04.4-live-server-amd64.iso

Isto inclui um novo instalador (ish) chamado Subiquity e tive muitos problemas com ele para o fazer jogar bem quando se trata de configurações de disco mais avançadas usando LVM, ZFS e afins. É possível que esteja a ter problemas em conseguir que estes níveis RAID de software também funcionem.

Em geral, a menos que esteja a fazer uma instalação simples e directa, utilize antes o instalador alternativo. Descarregar de http://cdimage. ubuntu. com/releases/18.04/release/ A ISO será chamada ubuntu-18.04.3-server-amd64.iso

Este é o instalador anterior antes de Subiquity ter entrado em cena. A sua partição avançada e configuração do disco é, bem, mais avançada.

Tendo dito tudo isto, não estou 100% certo se o RAID10 funciona com o Grub2, pelo que este instalador alternativo pode ainda não fazer o trabalho por si.

Se o Grub2 funcionar com o RAID10 e o assistente/instalador não o fizer, então poderá apenas ter de efectuar uma instalação manual completa. Envolve a utilização da ISO do ambiente de trabalho, que inclui uma opção Live. Uma vez no sistema Live, desça até à shell, particione, monte e instale manualmente.

Use este guia como um ponto de partida. É baseado em ZFS, mas pode adaptar-se às suas necessidades. Dá-lhe pelo menos uma ideia básica do que está a procurar fazer. https://github. com/openzfs/zfs/wiki/Ubuntu-18.04-Root-on-ZFS

Estou curioso em saber se o instalador alternativo vai fazer o truque para evitar esta forma complicada de o fazer. Se quiserem experimentar, terei todo o gosto em tentar juntamente convosco pelo valor académico. Utilizo uma versão modificada dos métodos do guia acima para pôr os meus servidores Linux a funcionar com ZFS on /boot e root. Estes métodos assumem, no entanto, o EFI. Isso pode tornar-se um ponto de colagem, mas tenho a certeza de que pode ser trabalhado.

Parte do benefício do instalador alternativo é que nos permite instalar o Ubuntu de formas que normalmente não estão disponíveis com o instalador ao vivo. Uma das características adicionais é ser capaz de instalar o Ubuntu em RAID por software, que é o que faremos nesta secção. Aqui, os passos pelos quais iremos passar continuam de facto a partir do passo 14 da secção anterior. Siga estes passos para configurar uma instalação com RAID por software, especificamente com RAID1 entre dois discos, neste caso.

  1. Na secção anterior, escolhemos Guided – utilizar o disco inteiro no ecrã mostrado na imagem seguinte. Para configurar o RAID, seleccionaremos Manual neste ecrã:
  1. A seguir, seleccionaremos o primeiro disco e premimos Enter :
  1. A seguir, ser-lhe-á perguntado se pretende criar uma nova tabela de partições neste disco, que limpará todos os dados nele contidos. Escolha Sim e prima Enter :
  1. No ecrã seguinte, seleccione o segundo disco (aquele que ainda não inicializámos) e carregue em Enter :
  1. Ser-lhe-á novamente perguntado se deseja criar uma nova tabela de partições. Seleccione Yes e carregue em Enter :
  1. No ecrã seguinte, escolheremos a opção Configurar software RAID:
  1. Antes de podermos continuar, o instalador deve finalizar as alterações que fizemos até agora (o que neste momento só tem sido para inicializar os discos). Seleccione Yes e prima Enter :
  1. A seguir, escolha Criar dispositivo MD e prima Enter :
  1. A seguir, seleccionaremos o tipo de RAID com o qual desejamos trabalhar. Seleccione RAID1 e carregue em Enter para continuar:
  1. A seguir, escolha o número de discos que vamos adicionar ao RAID1. O RAID1 requer exactamente dois discos. Digite 2 aqui e prima Enter :
  1. Se tivermos discos adicionais para além de dois, podemos adicionar aqui uma ou mais hot spares. Estas serão utilizadas no caso de uma falha com um dos discos RAID. Se tiver um disco extra, sinta-se à vontade para o utilizar e introduza aqui o número apropriado. Seja como for, seleccione Continuar e prima Enter :
  1. Em seguida, escolheremos quais os discos a incluir com a nossa configuração RAID1. Deveremos ter exactamente dois listados. Use as setas do teclado para se mover entre eles, e prima Espaço para seleccionar um disco. Precisamos de seleccionar os dois discos, o que significa que marcaremos ambos com um asterisco ( * ). Depois de seleccionar ambos os discos, seleccionar Continuar e premir Enter :
  1. A seguir, finalizaremos as nossas selecções até ao momento. Seleccione Yes e carregue em Enter :
  1. Seleccione Finish para continuar:
  1. Agora, criámos RAID com sucesso. No entanto, só isso não é suficiente; precisamos também de formatá-lo e dar-lhe um ponto de montagem. Use as teclas de setas para seleccionar o dispositivo RAID que acabámos de configurar e prima Enter :
  1. Usando a seguinte captura de ecrã como guia, certifique-se de definir Use as to EXT4 journaling file system (pode escolher outro tipo de sistema de ficheiros se desejar experimentar). Além disso, defina o ponto de montagem para / e depois seleccione Done setting up the partition :
  1. Para finalizar a nossa selecção, escolha Terminar particionamento e escrever as alterações no disco :
  1. A seguir, veremos uma última confirmação antes da nossa nova partição ser criada. Seleccione Sim e prima Enter :

Isto cobre praticamente todo o processo de configuração do RAID. A partir daqui, pode voltar à secção anterior e continuar com o processo de instalação com o passo 16. Uma vez terminado todo o processo de instalação, será útil saber como verificar o estado do RAID. Uma vez iniciada a sua nova instalação, execute o seguinte comando:

Na captura de ecrã anterior, pode ver que estamos a utilizar RAID1 (procure a secção da saída que lê o raid activo1 ). Também verificamos se cada disco da matriz RAID está online, procurando o número apropriado de Nós. É esta linha: 20953088 bloqueia super 1,2 [2/2] [UU].

Se a saída incluísse U_ ou _U em vez de UU , teríamos motivo para alarme, pois isso significaria que um dos discos se deparou com um problema ou está offline. Basicamente, cada U representa um disco, e cada underscore representa onde um disco deve estar. Se um estiver em falta e for alterado para um underscore, temos um problema com a nossa matriz RAID.

Originalmente foi-me perguntado aqui no Server Fault, mas foi-me dito para o mover para aqui.

Tenho um PC antigo que quero utilizar como servidor de ficheiros no meu escritório. Liguei-lhe dois discos de 500GB e um disco rígido de 300GB. Agora quero instalar nele um sistema operativo e configurar RAID de modo a ter tolerância a falhas.

Uma coisa a notar é que o PC é bastante antigo – tem apenas 2GB de RAM DDR2 (não tenho a certeza sobre o modelo de CPU).

Pensei em instalar o CentOS 7 por causa dos baixos requisitos do sistema, e usar RAID-5. Serão estas boas escolhas para a minha instalação? E como posso configurar o RAID-5 no servidor?

Editar: Vamos assumir que recebo um 3º disco rígido de 500GB (o SO vai para a unidade de 300GB). Como posso configurar o RAID-5?

1 Resposta 1

Com base na sua pergunta, presumo que não tenha muita experiência em TI. Perdoe-me se estou errado. Responderei a isto da forma mais simples possível.

Sem entrar em detalhes técnicos complicados sobre os motivos, não pode fazer RAID-5 com esses discos, pois precisa de três unidades de 500 GB para RAID-5. Com os dois discos de 500 GB, é possível fazer RAID-1, que é o espelhamento. É preciso fazer uma escolha, investir uma pequena quantia de dinheiro num terceiro disco de 500 GB, ou perder metade do seu espaço com o espelhamento. Níveis RAID do Google para saber mais. Pessoalmente, instalaria o SO na unidade de 300 GB e investiria noutra unidade para RAID-5, pois manterá a redundância e perderá menos espaço para a redundância.

Uma vez que esta máquina é “velha” e parece faltar-lhe o conhecimento sobre como configurar RAID, eu ficaria longe de um SO servidor como o CentOS. Em vez disso, eu iria com um SO mais dedicado como o OpenMediaVault. OMV é um SO baseado em Linux, mas foi concebido para ser um servidor de ficheiros dedicado e fácil de usar. Tem grande parte da distribuição Linux “inchada” removida, por isso é leve e requer poucos recursos. Tenho usado OMV e posso dizer que é excelente, estável, e fácil de usar. O OMV é extremamente novo e de fácil utilização com uma interface web simples. Na verdade, uma vez instalado, o OMV é inteiramente controlado através da interface web. O OMV fará o seu percurso através da configuração, assim como fará o RAID que decidir.

Bom dia a todos. Problema encontrado durante a instalação do Ubuntu no SuperServer 1028R-WTRT. Em princípio, já encontrei duas soluções de trabalho, mas quero perguntar à comunidade – como tudo isto de forma correcta e optimizada. Existe uma plataforma SuperServer 1028R-WTRT com MB X10DRW-iT. A tarefa é configurar um RAID1 (espelho) usando um controlador sSATA de chipset integrado da série C610/X99 em RAID MODE, ou RAID por software na maioria dos Ubuntu (mdadm). O problema é o seguinte, se partirmos automaticamente o disco nesse e noutro caso obtemos ou ecrã preto com cursor após a instalação ou queda do grub / grub rescue, dependendo da opção de instalação. Algo semelhante já foi descrito aqui – Como executar o Ubuntu Server Supermicro Intel Raid 10? .

Através de várias experiências, foram encontradas duas soluções de trabalho:

1. Criar um dispositivo controlador RAID1 array:

2. Utilizar boot em UEFI. Quando se instala o Ubuntu num RAID visto como um dispositivo separado:

3. Marque o seu dispositivo manualmente, criando uma partição ext4 com ponto de montagem / . Ou seja, sem ESP e troque partições.

Depois disso, tudo carregado com sucesso. Se der ao instalador para particionar o dispositivo correctamente, isto é, com o estabelecimento do ESP, ext4 (/) e trocar – após reiniciar’e obter um cursor intermitente, como descrito aqui. A decisão de não colocar o swap em RAID é aí espreitada. A versão apresentada funciona, mas eu quero ouvir a opinião de Todos, é que uma tal configuração viável sem swap’and combat server? Ou será que vale a pena construir depois swap sob a forma de um ficheiro de paging num sistema já em funcionamento? No servidor 96 Gb de RAM.

Com o RAID sitovym em Ubuntu tive de cavar mais fundo. Tentei diferentes opções de arranque na UEFI e no Legacy BIOS. Basicamente, o problema resume-se à incapacidade de instalar o GRUB durante a fase de instalação, ou novamente com a incapacidade de arrancar com o RAID e:

Por gancho ou por vigarice quando se descobriu que o RAID softova tinha a seguinte disposição (testado em UEFI):

Quer dizer, marcar primeiro os dois discos como habitualmente, com o estabelecimento de ESP, ext4 (/) e trocar. Tudo isto acontece após algumas reinicializações, depois mudar o tipo de partição ext4 (/) no linux-raid em ambas as unidades. Depois criar duas partições linux raid RAID softwary, e já é uma partição ext4 (/). Depois disso, o grub será instalado normalmente e normalmente é carregado com um disco (para carregar o segundo, é claro que o ESP só tem de se curvar para outro disco). A opção funcionando, mas mais uma vez, parece não ser particularmente correcta.

Neste contexto, uma questão – talvez alguém tenha uma plataforma semelhante para operar. Que opção utilizaria que é descrita na solução #1 ou #2? Talvez tenha alguma configuração funcional que seria mais “competente” e “failover”. Apreciarei quaisquer dicas e sugestões.

Instalar linux em raid de software. O Logical Volume Manager está agora incluído na maioria das distribuições de Linux. Qualquer nível RAID de software é sempre aplicado a todas as unidades. Esta é uma forma de RAID por software utilizando controladores especiais, e não é necessariamente mais rápida do que o verdadeiro RAID por software. 0 porta), seleccionar distribuição linux (descarreguei a versão ubunto 16 LTS do site ubuntu, e apontei para a sua ISO). Melhore esta questão. 04 LTS USB Como instalar o Windows 10 num RAID 0 por software? Não é possível. Este vídeo tutorial demonstra como instalar o Ubuntu numa matriz RAID 0. Arrancar do CD de instalação do Ubuntu para … Instalar o Ubuntu 20. Estou um pouco perdido sobre o processo. modo ATA legado) para que as unidades sejam vistas como individuais, não na configuração RAID. A Intel melhorou o RAID MD para suportar metadados RST e OROM e é validado e suportado pela Intel para servidor Tentando instalar o servidor Ubuntu numa matriz de raid de hardware 1 em vez da raid de software linux nativo. 9. Não creio que o software RAID do Windows jogue bem com o linux. O ecrã Bem-vindo ao Oracle Linux 8 é exibido. org) Yannick Loth: Instalando o Archlinux com o software raid1, sistema de ficheiros encriptado e LVM2 (via arquivo. /dev/sdb1 1 48632 390636508+ 83 Linux. Passo 5: Clique em “Next” (Seguinte) para Software RAID. O Raid 10 é uma das opções. Com alguma ajuda de How to install Ubuntu server with UEFI and RAID1 + LVM, RAID configurado em Ubuntu 18. raid system-installation. Não se pode mover informações de uma unidade quando não há software para a gerir. A seguir, para instalar o Ubuntu Linux no Hyper-V, basta seguir as recomendações do assistente de instalação do Ubuntu Linux e o sistema operativo Linux será configurado no seu Eu tenho tentado instalar o Linux no meu novo portátil Aspire 5 A515-55. ZFS. Neste caso, o servidor não arranca. Verifique o progresso: cat /proc. Habitue-se – vai adorar. Por exemplo, Instalado com sucesso CentOS, Debian, e Win2K (usado KVM e 2. Redundant Array of Inexpensive Disks (RAID) é uma tecnologia para combinar múltiplos discos a fim de melhorar a sua fiabilidade e/ou desempenho. Descarregar o instalador do servidor alternativo. Proceda através do instalador até chegar à configuração do Filesystem. 04 é. 04 LTS Software RAID é feito através do nível do Sistema Operativo. Ver informação RAID: mdad m-D /dev/md0 informação RAID . Instalar o Ubuntu 20. Re: Installing grub2 with /boot on software raid, Jordan Uggla, 2013/07/01. Tentei instalar em ambas as unidades separadamente e parecia funcionar bem. Reiniciar e desfrutar de uma instalação RAID 1 totalmente funcional. (Isto significa drives marcadas com DRIVE, como discutido acima. Mas a dose padrão do instalador parece não gostar de brincar com ela, e posso encontrar RAID de software na página de manual do Instalador de Arquitectos. 0 polegar drive no usb 3. Assim, talvez pudesse começar com uma instalação regular do Ubuntu/Debian no anfitrião, configurar o software raid da forma habitual e depois configurar o aparelho como uma máquina virtual. Próximo passo lógico – criar partição e formatar o disco rígido utilizando utilitários de linha de comando Linux. Uma combinação de unidades faz um grupo de discos para formar uma matriz RAID ou um conjunto de RAID que pode ser um mínimo de 2 discos ligados a um controlador RAID e fazer um volume lógico ou mais, pode ser uma combinação de mais unidades num grupo. O estado RAID é relatado através do ficheiro /proc/mdstat. 1. O software RAID implementa os vários níveis de RAID no código do dispositivo de bloco do kernel. [protegido por e-mail]:

# pacma n-S grub2 Neste blog, iremos verificar como instalar o Arch Linux, definindo o software RAID 1. Voltar a “CentOS 6 – Hardware Support” Como instalar o servidor MySQL no CentOS 8 Linux; Como identificar a velocidade da rede entre duas máquinas. Para mais informações sobre RAID e que modo RAID deve escolher, ver Wikipedia. É concebido para permanecer operável mesmo que um dos discos falhe. nenhum Uma configuração RAID pode ser conseguida através de hardware dedicado ou através de software. Verifique as alterações. Instalar o bootloader (GRUB) Em Jessie (8. Encolher a última partição, se necessário, para obter os 1 MB de espaço livre no final Nesta secção iremos instalar um sistema operativo Linux completo a partir do zero, com RAID 0 e RAID 1 utilizados nas partições em dois discos rígidos locais. amd/vmlinuz video=vesa:ywrap, mtrr vga=788 \ – silencioso. Neste artigo vou partilhar os passos para configurar o software raid 1 com e sem disco de reserva i. Está restringido aos níveis de RAID que o seu sistema operativo pode suportar. Instalação do servidor Ubuntu com software RAID 1. Instalar o Ubuntu numa matriz RAID 0. Neste blog, vamos verificar como instalar o Arch Linux … Instalar o Grub no disco rígido primário (e guardar a configuração RAID) Este é o último e último passo antes de ter um sistema de arranque! Como visão geral, o conceito básico é copiar sobre os ficheiros do grub bootloader para /boot/grub, montar um procfs e uma árvore de dispositivos dentro do /mnt, depois chroot para /mnt para que esteja efectivamente dentro do seu novo sistema. poderá não ter espaço suficiente para instalar o software se o disco já estiver particionado. Se tiver 2 discos rígidos definidos como um volume único usando RAID 0, não poderá instalar o Ubuntu 14. /dev/md2 1. Utilizo sempre o /dev/md0 para a partição /boot. O exemplo descreve como criar um RAID 5

Somos uma pequena empresa que faz edição de vídeo, entre outras coisas, e precisamos de um lugar para guardar cópias de segurança de grandes ficheiros multimédia e facilitar a sua partilha.

Tenho uma caixa configurada com o Ubuntu Server e unidades de 4 x 500 GB. Estão actualmente configurados com Samba como quatro pastas partilhadas que as estações de trabalho Mac/Windows podem ver bem, mas eu quero uma solução melhor. Há duas grandes razões para isto:

  1. 500 GB não é realmente suficientemente grande (alguns projectos são maiores)
  2. É complicado gerir a configuração actual, porque os discos rígidos individuais têm diferentes quantidades de espaço livre e dados duplicados (para backup). É confuso agora e isso só irá piorar quando houver múltiplos servidores. (“o projecto está em sever2 em share4”, etc.)

Portanto, preciso de uma forma de combinar discos rígidos de modo a evitar a perda completa de dados com a falha de um único disco, e assim os utilizadores vêem apenas uma única partilha em cada servidor. Já fiz RAID5 por software linux e tive uma má experiência com ele, mas tentaria de novo. O LVM parece bem, mas parece que ninguém o utiliza. O ZFS parece interessante, mas é relativamente “novo”.

Qual é a forma mais eficiente e menos arriscada de combinar os hdd’s que é conveniente para os meus utilizadores?

Editar: O objectivo aqui é basicamente

A minha experiência anterior com RAID5 foi também numa caixa do Ubuntu Server e houve um conjunto complicado e improvável de circunstâncias que levaram à perda completa de dados. Pude evitar isso novamente, mas fiquei com a sensação de que estava a acrescentar um ponto adicional desnecessário de falha ao sistema.

Não utilizei RAID10 mas estamos em hardware de base e a maioria das unidades de dados por caixa está praticamente fixada em 6. Temos muitas unidades de 500 GB e 1,5 TB é bastante pequeno. (Ainda assim, uma opção para pelo menos um servidor)

Não tenho experiência com LVM e li relatórios contraditórios sobre a forma como lida com as falhas de condução. Se uma configuração LVM (não riscada) pudesse lidar com uma única unidade com falha e apenas soltasse os ficheiros que tivessem uma parte armazenada nessa unidade (e armazenasse a maioria dos ficheiros apenas numa única unidade), poderíamos até viver com isso.

Mas desde que tenha de aprender algo totalmente novo, mais vale ir até ao ZFS. Ao contrário do LVM, porém, também teria de mudar o meu sistema operativo (?) para aumentar a distância entre onde estou e onde quero estar. Usei uma versão de solaris na uni e não me importaria muito com isso, no entanto.

Do outro lado, no espectro informático, penso que também posso explorar o FreeNAS e/ou Openfiler, mas isso não resolve realmente a questão da condução em modo de comboios.

Tenciono criar um servidor de ficheiros simples para a minha rede doméstica, e optei por utilizar o Ubuntu Server devido à experiência passada que tive com o Ubuntu mais toda a grande ajuda que recebi de tantos outros utilizadores nestes fóruns.

O meu principal objectivo é ter um lugar para guardar toda a minha música, software, vídeos, e outros ficheiros de dados diversos. Vou aceder principalmente a estes ficheiros a partir dos meus computadores Windows, e muito provavelmente vou utilizar o Putty para trabalhar com o sistema linux através de acesso remoto, por isso planeio instalar o servidor Samba File server e o OpenSSH Server.

O meu computador servidor tem: – (1) 10 GB de HD para o SO, e – (2) 750 GB de HD ligados a um controlador RAID que pretendo configurar num RAID1 Array para Armazenamento.

A minha pergunta é: Quando estou a particionar os meus HD’s durante a instalação do linux usando a opção “Guided – use whole disk”, vou ver a disposição das unidades particionadas e mostra as três unidades listadas. Não deveria mostrar apenas 2 unidades (o HD de 10 GB e o RAID Array de 750 GB)? Se é suposto mostrar todas as 3, como é que a configuro onde as 2 unidades da matriz RAID se espelharão umas às outras?

Qualquer ajuda seria bem-vinda.

Muitos caminhos a seguir, mas se está a pensar em usar o raid da BIOS na sua placa mãe, isso é outra questão. Aqui estão alguns links que o levarão a avançar:

NOTA: Deve usar o Ubuntu Server 18.04 LTS, não o Ubuntu 18.04-servidor vivo. O servidor vivo ISO não fornece todos os utilitários para a instalação de RAID e LVM. (http://cdimage. ubuntu. com/releases/18.04/release/)

Estes passos também funcionam para o ubuntu Server 16.04 LTS.

Estes passos descrevem como configurar um software RAID 5 no momento da instalação utilizando o instalador ncurses Ubuntu Server. Os tamanhos das unidades aqui reflectem os meus esforços de teste numa VM, mas eu implementei isto em hardware onde a partição “data” é

45T em tamanho. Testei a capacidade de remover uma unidade da matriz e reiniciar o sistema, que sobreviveu à reinicialização. No entanto, o menu de arranque UEFI foi modificado pelo sistema. Não sei bem porquê. Preciso de ler mais sobre várias coisas que estão a ter lugar nesta configuração. Mas está a funcionar e parece ser estável até agora. Tenho a certeza de que algumas “melhorias” poderiam ser feitas. Tudo a seu tempo.

** Sendo um novato com WP, posso ter estragado algo ao tentar formatar a página. A maioria destas notas deve ser usada como referência, e não como instruções exactas de qualquer forma. ** Passo 1 na Virtualbox:

Passo 2 Criar as partições físicas do disco

No ecrã “Partition disks”:

Neste ponto, iremos configurar o primeiro disco (sda):

A primeira partição será a partição de arranque GPT:

A segunda partição será a partição “/”:

A terceira partição será a partição “/dados”:

A partição “/data”: A partição swap:

Agora repita todos estes itens de configuração novamente para cada disco restante: sdb, sdc, sdd, sde

Passo 3 Configurar o software RAID 5

**Importante** Ao criar os dispositivos RAID, NÃO crie um dispositivo RAID para as partições de arranque GPT!

Estou a configurar o raid para o seguinte: “/”, “/dados”, e “swap” – portanto 3 arrays de raid independentes.

Agora repita novamente os passos para as restantes raid arrays (isto é, “/dados”, e “swap”)

Passo 4 Activar as matrizes do RAID 5

Faça estes passos para os dois restantes dispositivos de raid (certificando-se de que escolhe os pontos de montagem/sistemas de ficheiros correctos).

Passo 5 Continuar com a instalação do SO.

Passo 6 Vamos olhar para o que temos até agora, certificando-nos de que as matrizes estão saudáveis e inicializadas.

Passo 7 A partir de que partição inicializámos?

Fazer corresponder o UUID da fstab a um UUID na saída da blkid. Depois faça corresponder o PARTUUID à saída do efibootmg r-v.

Passo 8 A informação de arranque está actualmente apenas num disco (ver Passo 7). Precisamos de copiar esta informação para todos os discos, para que possamos sobreviver a uma única falha da unidade. Os seguintes comandos podem destruir tudo o que foi feito até agora. Certifique-se de que acerta. Snapshotar se correr um VM é uma boa ideia.

Passo 9 Agora adicionamos todas as partições de arranque ao efibootmgr. Este comando irá mostrar-lhe o que tem actualmente na configuração.

Queremos configurar entradas como “Boot0007* ubuntu”.

Passo 10 Se quiser testar a configuração do menu de arranque, faça o seguinte para cada unidade:

Depois de reiniciar, correr efibootmgr para verificar (arranca, por isso deve estar ok).

O script de instalação fornecido por Hetzner é um método fácil e rápido de instalar várias distribuições Linux.

Pode executar a instalação de imagens directamente a partir do Sistema de Recuperação no seu servidor. O seu menu de interfaces facilita a selecção da distribuição Linux que deseja. Tem controlo total sobre a forma de particionar a(s) sua(s) unidade(s). E pode utilizar um editor simples para definir como pretende utilizar o software RAID e LVM.

Para utilizar a installimage, é necessário primeiro activar o Rescue System e depois arrancar para o Rescue System.

Utilize a palavra-passe apresentada no Robot para iniciar sessão no Rescue System como “raiz”. Em seguida, digite installimage para iniciar o script installimage:

No menu seguinte, deverá ver:

Depois de escolher uma imagem, receberá uma nota de que o editor será iniciado, e isto abrirá o ficheiro de configuração.

Oferecemos um número de imagens padrão que pode utilizar. Estas são tipicamente a versão mais recente da distribuição em particular.

Os utilizadores avançados podem também instalar versões mais antigas destas distribuições, indo para a antiga\_

É possível ajustar as seguintes variáveis para personalizar a instalação.

As unidades que estão presentes no servidor são identificadas na primeira linha com a variável DRIVE. Acima de cada linha, é possível ver o tipo de unidade.

Aqui, é possível seleccionar em que unidades pretende que o SO seja instalado. As unidades serão completamente apagadas, e todos os dados actualmente nelas presentes serão perdidos.

Se quiser deixar uma unidade no seu estado actual e não efectuar quaisquer alterações à mesma, pode deixá-la de fora (removê-la) colocando um # antes dela. Nota importante: Ao fazer isto significa que precisa de ajustar correctamente o número após a próxima variável DRIVE.

Se o servidor tiver várias unidades, pode usar as variáveis SWRAID e SWRAIDLEVEL para criar diferentes níveis RAID de software. Qualquer nível RAID de software é sempre aplicado a todas as unidades. (Isto significa unidades marcadas com DRIVE, como discutido acima.) unidades. Se não quiser RAID por software numa determinada unidade, terá de o remover em conformidade.

O script pode criar RAID por software com níveis 0, 1, 5, 6 ou 10.

O bootloader Grub é pré-configurado. (No passado também oferecemos o Lilo). Dependendo do sistema operativo, o GRUB2 ou GRUB1 (Grub antigo) é instalado.

A variável HOSTNAME define o nome do anfitrião correspondente no sistema.

Partições / sistemas de ficheiros

A instalação também suporta ajustes no esquema de partição (incluindo a utilização de LVM). A sintaxe designada pode ser encontrada nos exemplos no editor.

Imagem do sistema operativo

Este é o caminho completo para a imagem do sistema operativo; só é necessário especificá-lo se estiver a instalar uma imagem personalizada.

Depois de deixar o editor com F10 (guardar e sair), a sintaxe do ficheiro de configuração é verificada. Se contiver erros, será devolvido ao editor.

Se vir esta saída após 1-5 minutos (dependendo da imagem e partição que estiver a utilizar), o sistema está pronto e inicializável.

A palavra-passe raiz é definida para a palavra-passe actual do Sistema de Salvamento.

Após uma reinicialização no Rescue System,

o sistema recém-instalado é inicializado e pode iniciar sessão com a palavra-passe anterior do Rescue System.

Ao instalar Debian ou Ubuntu usando o script installimage, os tempos para o cronjob em /etc/cron. d/mdadm são definidos aleatoriamente.

Perguntas Frequentes

Porque não posso criar divisórias maiores que 2 TiB?

Pode criar partições maiores do que 2 TiB apenas com uma tabela de partição GUID (GPT). Assim, só pode instalar sistemas operativos que incluam GRUB2; suporta o arranque a partir de unidades GPT.

O script de instalação mostra um ou mais erros. O que devo fazer?

Volte a executar a instalação. Se obtiver novamente o mesmo erro, envie a saída completa do ecrã e o conteúdo do ficheiro /root/debug. txt para [protegido por e-mail].

Tenho de colocar “tudo” no fim da mesa divisória ou posso colocar mais esta linha no topo?

O tamanho de tudo no ficheiro de configuração significa utilizar o resto do espaço disponível na unidade . Uma vez que as partições são criadas uma após a outra, a tabela de partições terminará após a utilização de tudo, porque haverá

Os guiões foram escritos por criadores da Hetzner Online GmbH, que os amaintainam e ampliam. Os guiões são escritos em bash e estão disponíveis no sistema de salvamento. Podem ser modificados e utilizados livremente. A Hetzner Online GmbH não assume qualquer responsabilidade por quaisquer danos causados pela alteração dos guiões e exclui qualquer suporte para guias que incluam alterações ao guião.

Qual é a palavra-passe MySQL Root quando o LAMP tiver sido instalado?

25 de Jul. de 2019 – 7 min. lido

Instalar um linux espelhado Ubuntu 18.04 no AC922 é muito simples. Aqui está como fazê-lo.

O processador POWER é uma arquitectura diferente do x86, nomeadamente ppc64el . É por isso que é uma maravilha. Portanto, é necessário obter uma versão Ubuntu compilada para esta arquitectura, tal como se estivesse a instalar no Rasberry Pi que corre o braço do processador ARM64 . Note que o paralelo entre IBM Power e ARM termina aqui!

Use o seu motor de busca favorito com palavras-chave ” ubuntu 18.04.2 ppc64el” e obterá a ligação adequada : PowerPC64 Little-Endian server install image. Descarregue-a e queime-a na chave USB. Executando o meu desktop sob linux, utilizo os discos gnome-discos para esse fim.

A instalação de Netw o rk é obviamente suportada, mas a instalação de um servidor http para esse fim não está no âmbito deste artigo.

Agora é necessário ter acesso ao servidor, para ligar a chave usb na porta USB frontal ou traseira, atrás da luneta frontal presa à fachada.

Enquanto lá estiver, e se desfrutar da temperatura regulada da sala do servidor durante os dias quentes de Verão, pode ligar um visor VGA e um teclado USB nas portas traseiras do servidor.

Se o seu crachá não abrir a porta do datacenter, utilize o protocolo IPMI para obter uma ligação Serial Over LAN ao terminal virtual do servidor:

Se o servidor não estiver ligado, não se vê nada. Ligue-o! Prima o botão superior direito a piscar na parte da frente do chassis, ou utilize novamente o IPMI:

O Petitboot é um bootloader e mais para o OpenBMC Firmware. Irá arrancar um interface linux e ASCII que o ajudará a gerir o servidor antes de arrancar o seu sistema operativo linux. Ao digitalizar os dispositivos, o petitboot descobrirá a chave USB bootável:

Mova o * para Install Ubuntu Server e carregue em Enter, o menu de instalação é iniciado. Defina o seu langage, locale, teclado, endereço IP como habitualmente para o Ubuntu.

Os discos devem ser manualmente separados para criar o layout de que precisamos. Escolha Manual no menu principal:

Se os seus discos não estiverem limpos de uma partição anterior, é altura de remover qualquer partição. O instalador não é tão bom para essa tarefa, especialmente se inalar a partir de discos com LVM. A forma mais fácil de o fazer é iniciar uma instalação em todo o disco: Guiado – utilizar o disco inteiro , e interrompê-lo depois de ter completado a fase de particionamento do disco. Este processo remove o LVM. Depois, após reiniciar, pode apagar o dispositivo RAID md do software com o instalador Ubuntu. Depois pode apagar as partições existentes. De qualquer forma… Digamos que os seus discos estão limpos:

Historicamente, os sistemas Power a correr linux precisam de uma pequena partição de 8 MB com um formato específico. Chama-se partição de arranque PReP, e aloja o binário stage1 do processo de arranque do linux. Esta página dar-lhe-á mais detalhes sobre isto. A boa notícia é que a petitboot cumpre essa tarefa, pelo que a partição de arranque PReP é inútil com servidores baseados em OpenPOWER / OpenBMC. Com servidores que não utilizam petitboot (servidores baseados em PowerVM), poderá encontrar esta partição.

Vou simplificar, este esquema é suficiente para o meu propósito: sobreviver a uma falha de disco. Vou criar um Sofware RAID1, um LVM em cima dele, com /boot e / volumes lógicos. Sem espaço swap, porque se eu ficar sem memória com os 512 GB de RAM que tenho num servidor não virtualizado, a causa será tal que um ficheiro swap não vai ajudar.

Este capítulo descreve as características do RAID, com especial enfoque na utilização de RAID de software para redundância de armazenamento.

3.1В Sobre o RAID por software

A característica RAID (Redundant Array of Independent Disks) proporciona a capacidade de distribuir dados por múltiplas unidades para aumentar a capacidade, implementar redundância de dados, e aumentar o desempenho. O RAID é implementado quer em hardware através do armazenamento inteligente de discos que exporta os volumes RAID como LUNs, quer em software pelo sistema operativo. O kernel Oracle Linux utiliza o driver multidisco (MD) para suportar RAID de software para criar dispositivos virtuais a partir de dois ou mais dispositivos de armazenamento físico. O MD permite organizar unidades de disco em dispositivos RAID e implementar diferentes níveis de RAID.

Os seguintes níveis RAID de software são geralmente implementados com Oracle Linux:

Combina unidades como uma unidade virtual maior. Este nível não oferece redundância de dados nem benefícios de desempenho. A resiliência diminui porque a falha de uma única unidade torna a matriz inutilizável.

Aumenta o desempenho mas não proporciona redundância de dados. Os dados são divididos em unidades (stripes) e escritos em todas as unidades da matriz. A resiliência diminui porque a falha de uma única unidade torna a matriz inutilizável.

RAID-5 (striping com paridade distribuída)

Aumenta o desempenho de leitura através da utilização de striping e fornece redundância de dados. A paridade é distribuída por todas as unidades de uma matriz, mas não ocupa tanto espaço como um espelho completo. O desempenho de escrita é reduzido até certo ponto como consequência da necessidade de calcular a informação de paridade e de escrever a informação para além dos dados. Se um disco na matriz falhar, a informação de paridade é utilizada para reconstruir os dados para satisfazer os pedidos de E/S. Neste modo, o desempenho de leitura e a resiliência são degradados até se substituir a unidade falhada e repovoar a nova unidade com dados e informação de paridade. O RAID-5 é intermediário em despesas entre RAID-0 e RAID-1.

RAID-6 (Striping com dupla paridade distribuída)

Uma variante mais resiliente do RAID-5 que pode recuperar da perda de duas unidades de uma matriz. O RAID-6 é utilizado quando a redundância e a resiliência dos dados são importantes, mas o desempenho não o é. O RAID-6 é intermediário em despesas entre o RAID-5 e o RAID-1.

Fornece redundância e resiliência de dados ao escrever dados idênticos para cada drive da matriz. Se uma unidade falhar, um espelho pode satisfazer os pedidos de E/S. O espelhamento é uma solução cara porque a mesma informação é escrita em todos os discos da matriz.

RAID 0+1 (espelhamento de discos listrados)

Combina RAID-0 e RAID-1 através do espelhamento de uma matriz de listras para proporcionar tanto um maior desempenho como uma redundância de dados. Falha de um único disco

Combina RAID-0 e RAID-1 através da remoção de uma matriz espelhada para proporcionar tanto um maior desempenho como uma redundância de dados. A falha de um único disco faz com que parte de um espelho seja inutilizável até que o disco seja substituído e repovoado com dados. A resiliência é degradada enquanto que apenas um único espelho retém uma cópia completa dos dados. O RAID 1+0 é normalmente tão caro ou ligeiramente mais caro do que o RAID-1.

3.2В Criação de dispositivos RAID de software

Execute o comando mdadm para criar o dispositivo MD RAID da seguinte forma:

Nome do dispositivo RAID, por exemplo, /dev/md0 .

Número de nível do RAID para criar, por exemplo, 5 para uma configuração RAID-5.

Número de dispositivos para fazer parte da configuração RAID.

Dispositivos a serem configurados como RAID, por exemplo, /dev/sd[bcd] para 3 dispositivos para a configuração RAID.

Os dispositivos que listar devem totalizar o número que especificou par a-raid-devices .

Este exemplo cria um dispositivo RAID-5 /dev/md1 a partir de /dev/sdb , /dev/sdc , e dev/sdd :

O exemplo anterior cria um dispositivo RAID-5 /dev/md1 a partir de 4 dispositivos. Um dispositivo é configurado como um sobresselente para expansão, reconfiguração, ou substituição de unidades avariadas:

(Opcional) Adicionar a configuração RAID ao /etc/mdadm. conf :

Com base no ficheiro de configuração, o mdadm monta as matrizes no momento do arranque.

Por exemplo, as seguintes entradas definem os dispositivos e matrizes que correspondem a /dev/md0 e /dev/md1 :

Para mais exemplos, ver o ficheiro de configuração de amostra /usr/share/doc/mdadm-3.2.1/mdadm. conf-example .

Um dispositivo MD RAID é utilizado da mesma forma que qualquer dispositivo de armazenamento físico. Por exemplo, o dispositivo RAID pode ser configurado como um volume físico LVM, um sistema de ficheiros, uma partição swap, um disco de Gestão de Armazenamento Automático (ASM), ou um dispositivo em bruto.

Para verificar o estado dos dispositivos RAID MD, visualizar /proc/mdstat :

Para exibir um resumo ou informação detalhada sobre dispositivos MD RAID, utilize a opçã o-query o u-detail, respectivamente, com mdadm .

Para mais informações, ver as páginas do manual md(4) , mdadm(8) , e mdadm. conf(5) .

Aqui está um exemplo de migração de um sistema Ubuntu em execução para um RAID1 de software. No processo, será necessário efectuar duas reinicializações.

O primeiro passo é mudar para o utilizador raiz, se ainda não o fez:

Vamos ver uma lista de discos e partições:

Suponha que o sistema utiliza um disco, por exemplo /dev/sda e tem uma partição principal, /dev/sda1. Para o teste, instalei um Ubuntu Server 18.04 limpo, o disco foi separado por defeito, a swap foi o ficheiro na mesma partição.

Para criar um raid, ligamos outro disco do mesmo tamanho, que será chamado /dev/sdb.

Instale mdadm e utilitários necessários (são normalmente instalados por defeito):

A fim de garantir que todos os módulos e componentes necessários sejam instalados, executar o seguinte comando:

Se os módulos necessários não forem carregados, então carregue-os:

Vamos dividir o novo disco /dev/sdb da mesma forma que:

No passo seguinte, altere o tipo de partição do novo disco rígido /dev/sdb para “Linux raid autodetect” (desde a partição 1, depois do “t” não lhe será pedido para especificar o número da partição):

Certifique-se de que o tipo de partição /dev/sdb é “Linux raid autodetect”:

Criar um array md0 utilizando a partição em falta:

Se algo não funcionar, então pode remover a raid e tentar novamente:

Vamos especificar o sistema de ficheiros do array:

Vamos fazer uma cópia de segurança do ficheiro de configuração mdadm e adicionar informação sobre o novo array:

Montar /dev/md0 no sistema:

Em mim foi exibido no fundo da lista:

No ficheiro /etc/fstab comentar as linhas sobre /dev/sda e adicionar sobre a matriz:

Vejamos no ficheiro /etc/mtab se existe um registo sobre a rusga:

Vejamos os nomes exactos dos ficheiros /vmlinuz, /initrd. img:

Criar um ficheiro a partir do menu de arranque do GRUB2 e abri-lo no editor:

Adicione o conteúdo (em vez de /vmlinuz e /initrd. img, especificaremos os nomes correctos se forem diferentes):

Abrir o ficheiro /etc/default/grub no editor de texto:

Descomente um par de linhas:

Actualizar o carregador:

Instale o carregador de inicialização em ambos os discos:

Copiar todos os dados para a matriz md0 previamente montada:

Reiniciar o sistema:

Quando o sistema arrancar, no menu de arranque será o primeiro menu /etc/grub. d/09_raid1_test, se houver problemas com o descarregamento, pode escolher arrancar a partir de /dev/sda.

Certifique-se de que o sistema é iniciado com /dev/md0:

Mais uma vez, mude para o utilizador raiz se não estiver debaixo dele:

Alterar o tipo de partição do antigo disco rígido:

Adicionar à matriz o disco antigo:

Aguardar até que a sincronização esteja concluída e certificar-se de que o raid está em ordem – UU:

Actualizar a informação da matriz no ficheiro de configuração mdadm:

Remover o nosso menu GRUB temporário, já não é necessário:

Actualizar e instalar novamente o GRUB:

Reinicie o sistema para se certificar de que funciona com sucesso:

Neste momento, a migração do sistema Ubuntu em execução para o software RAID1 está completa. Se um dos discos, /dev/sda ou /dev/sdb parar de funcionar, o sistema irá correr e arrancar. Para estabilidade, é possível adicionar mais discos do mesmo tamanho à matriz.

Сводка: A nossa carta é fornecer soluções que simplificam as TI fornecendo soluções de base de dados, desenvolvimento personalizado, datacenters dinâmicos, computação flexível Свернуть A nossa carta é fornecer soluções que simplificam as TI fornecendo soluções de base de dados, desenvolvimento personalizado, datacenters dinâmicos, computação flexível

Содержание статьи

Свойства статьи

Оцените эту статью

Симптомы

Aplica-se a: Sistema(s) Operativo(s) – Oracle Linux 6.x, RHEL 6.x

Plataforma(s) de servidor – PowerEdge R720, R820

Autor: Naveen Iyengar

  • Problema: Como configurar RAID de software em Dell Express Flash PCIe SSDs
  • Solução: 1. Identificar os dispositivos de bloco Flash Express – As unidades Flash Micron Express da Dell aparecem como os seguintes dispositivos de bloco no SO EL6.x
  • Nome dos blocos maiores 251 256 256 341873784 rssda 251 512 341873784 rssdb

2. Criar uma Partição – Use o utilitário fdisk linux como se segue para criar uma partição do tipo ‘fd’ nas unidades Flash

fdis k-u /dev/rssda

Comando (m para ajuda): n Acção de comando e extensão p partição primária (1-4) p

Número da partição (1-4): 1 Primeiro sector (56-683747567, por defeito 56: 128 Último sector, +sectores ou +size…, por defeito 683747567:

Comando (m para ajuda): t Partição seleccionada 1 Código Hex (tipo L para listar códigos): fd Tipo de sistema alterado de partição 1 para fd (raid Linux autodetectado)

3. Repetir o passo 2 para todos os outros dispositivos de bloco PCIe SSD a serem incluídos no RAID do software

4. Criar RAID por software – Utilize a ferramenta utilitária Linux chamada mdadm como se segue para criar a matriz RAID por software no Express Flash d

7. Verificar se a sincronização está completa: Executar a opçã o-detail para se certificar de que os dois SSDs da matriz não estão no estado de Resync, ou esperar até que termine a resyncing antes de executar um teste contra eles.

$> mdad m-detail /dev/md0

A. Eliminação da matriz:

dgingeri

Tenho um servidor em funcionamento que está a actuar. O controlador de raid, um LSI 9261-8i, está frequentemente a deixar todas as unidades lógicas offline. (Na verdade, isto tem acontecido desde que foi posto em prática, e nós apenas reiniciaríamos a coisa, mas só recentemente o meu chefe quer resolvê-lo). Procurando informações, é um problema frequente com o condutor do LSI e alguns dos controladores de raid e combinações de motherboard causam este problema, e Avago/Broadcom não vai trabalhar a nível de condutor para isto, uma vez que é um controlador mais antigo. Portanto, o meu chefe quer mudar o controlador de raid com um controlador diferente. Estamos a comprar um controlador Broadcom 9361-8i para o substituir, juntamente com BBU e cabos.

Command (m for help): wq The partition table has been altered! $>

O problema é que o novo controlador utiliza controladores diferentes, e eu não tenho ideia de como mudar os controladores de armazenamento do boot no Linux. O meu chefe sabe, mas não está disposto a dizer-me, dizendo que preciso de o procurar para o aprender. (Ele faz isto MUITO.) Não consigo encontrar nada sobre isto através de múltiplas pesquisas no Google.

Como é que eu faria isto? Será que alguém aqui sabe?

$>BulletDust

Suprema [H]ardência

$>Provavelmente, deverá mover este post para o subforum Linux.

Uma coisa é aprender e outra é ensinar, mas forçar alguém a aprender onde estão envolvidos dados preciosos é acabar em lágrimas.

$> mdadm – Es | grep md0 Check if the above command displays the details of the md0 array created. If not, try $>Por esta razão, odeio as pseudo cartas de raid de hardware sob Linux, preferindo usar mdadm no caso dos derivados do Ubuntu (Debian) pelo simples facto de a raid de software ser muito mais simples onde a falha de hardware é um problema. Devido a este facto é-me difícil oferecer conselhos, embora por vezes se possa ter sorte e instalar o cartão de raid de hardware (software), instalar os condutores, ligar as unidades na mesma ordem e tudo simplesmente funciona – embora não haja maneira de oferecer isto como conselho no que diz respeito a dados preciosos, o seu chefe é um idiota e não o deveria colocar nesta posição.

Depending on which of the above two command works, run the appropriate command below to add info to the mdadm. conf file $> mdadm – Es | grep md0 >> /etc/mdadm. conf Or $> mdadm – Es | grep “md/0” >>[H]ard|Gawd

Consideração #1 backup imediato Consideração #2 muito raramente o hardware RAID (especialmente pseudoRAID) utiliza layout de disco compatível.

$>Provavelmente, deverá mover este post para o subforum Linux.

dgingeri

Consideração #1 – isto é armazenamento para grandes projectos para o nosso grupo de pós-produção. Foi especificamente tolerado com o contingente de que não seria apoiado. (Não é a minha escolha.) Na verdade, é raramente utilizado, e foi frequentemente considerado como estando trancado após meses de tempo ocioso. Consideração #2 – Trabalhei com estes controladores muito frequentemente, e sei com certeza que é fácil migrar grupos de um para outro. Os conjuntos de discos podem mover-se do 9261 para o 9361 sem problemas, e o retrocesso só é um problema se utilizassem RAID 6 no controlador mais recente. Isto funciona muito bem sob Windows, mesmo quando a unidade de arranque está no controlador RAID. Apenas instalo os controladores mais recentes antes da mudança, e assim que arranca, reconhece novamente os dispositivos, reinicia, e tudo está a 100%. As versões Dell de cada trabalho também estão bem assim. É fácil importar um conjunto de discos de um Dell H730 numa Broadcom 9361 ou num LSI 9261, desde que sejam unidades SATA. A SAS torna as coisas um pouco mais complicadas, mas não muito. Claro que não é possível utilizar unidades SAS de 12Gb num Dell H710 ou LSI 9261, mas essa é a única complicação.

Oh, e não foi a minha escolha na forma como estas máquinas foram construídas, como foi construído antes de eu ter começado com esta empresa. Portanto, o RAID por software não foi uma escolha para mim. Além disso, com o desempenho necessário para isto, editando grandes ficheiros de vídeo sobre uma partilha Linux SMB, o RAID por software não funcionaria. Apenas não tem um desempenho suficiente. Eu sei isto por experiência directa.

BulletDust

Suprema [H]ardência

Isso não é razão.

Se tiver de instalar condutores para utilizar o cartão de raid, está a utilizar uma variante de raid de software. Com o nível de desempenho da CPU que existe há cerca de dez anos, raramente vi uma situação em que o raid de software via mdadm não funcionasse adequadamente. Se os cartões (substituição vs original) forem compatíveis, basta colocar o cartão, ligar as unidades, instalar os controladores e está pronto para ir.

O seu chefe continua a ser um açoitador, utilizando métodos de ensino ridículos.

Frobozz

[H]ard|Gawd

A consideração #1 precisa de ser revisitada se possível. Não precisa de estar numa super capacidade de recuperação de desastres. Contudo, se for concebível empurrar uma cópia do conteúdo (pelo menos dados de trabalho) para uma unidade ou sistema externo enquanto se aprende o que quer que seja (ou se decide fazer um yolo), isso aliviará muita da pressão.

Tem algum hardware semelhante para praticar este cenário ou ninguém se importará realmente se estragar alguma coisa? Não tenho jogado muito com placas RAID, mas não têm os seus próprios esquemas para escrever metadados através das unidades? (tornando a portabilidade entre diferentes tipos de controladores praticamente impossível) Isso tornaria os controladores ao nível do linux (se o volume de arranque estiver na matriz) não ser realmente o primeiro problema a ultrapassar.

Caso contrário, ao nível do SO, suponho que a sua aventura de leitura será sobre o conteúdo do /boot (grub, initrd/vmlinuz) e a leitura da documentação para a instalação do novo controlador no Linux. Estou apenas a tirar uma ideia do ar sem experiência, mas se não estiver cozinhada no kernel padrão, então terá de instalar algum tipo de pacote e depois regenerar o initrd/initramfs para que o seu driver fornecido esteja disponível quando o sistema começar a arrancar.

Consideração #1 – isto é armazenamento para grandes projectos para o nosso grupo de pós-produção. Foi especificamente tolerado com o contingente de que não seria apoiado. (Não é a minha escolha.) Na verdade, é raramente utilizado, e foi frequentemente considerado como estando trancado após meses de tempo ocioso. Consideração #2 – Trabalhei com estes controladores muito frequentemente, e sei com certeza que é fácil migrar grupos de um para outro. Os conjuntos de discos podem mover-se do 9261 para o 9361 sem problemas, e o retrocesso só é um problema se utilizassem RAID 6 no controlador mais recente. Isto funciona muito bem sob Windows, mesmo quando a unidade de arranque está no controlador RAID. Apenas instalo os controladores mais recentes antes da mudança, e assim que arranca, reconhece novamente os dispositivos, reinicia, e tudo está a 100%. As versões Dell de cada trabalho também estão bem assim. É fácil importar um conjunto de discos de um Dell H730 numa Broadcom 9361 ou num LSI 9261, desde que sejam unidades SATA. A SAS torna as coisas um pouco mais complicadas, mas não muito. Claro que não é possível utilizar unidades SAS de 12Gb num Dell H710 ou LSI 9261, mas essa é a única complicação.

Editar: aposto mais $0,02 que os tipos do fórum SSD & Data Storage teriam mais experiência em primeira mão.

Tabela de Conteúdos

Isso não é razão.

Se tiver de instalar condutores para utilizar o cartão de raid, está a utilizar uma variante de raid de software. Com o nível de desempenho da CPU que existe há cerca de dez anos, raramente vi uma situação em que o raid de software via mdadm não funcionasse adequadamente. Se os cartões (substituição vs original) forem compatíveis, basta colocar o cartão, ligar as unidades, instalar os controladores e está pronto para ir.

O RAID-1 é normalmente referido como “espelhamento”. Cada objecto criança numa região RAID-1 contém uma cópia idêntica dos dados na região. Uma gravação numa região RAID-1 resulta na escrita simultânea desses dados em todos os objectos infantis. Uma leitura a partir de uma região RAID-1 pode resultar na leitura dos dados de qualquer um dos objectos infantis. Os objectos infantis de uma região RAID-1 não têm de ter o mesmo tamanho, mas o tamanho da região será igual ao tamanho do objecto infantil mais pequeno.

Criar software RAID 1 sem disco de reserva

A configuração RAID-1 mais simples deve conter pelo menos dois discos de membros. Neste exemplo, /dev/sdb1 e /dev/sdc1 são discos de membros do RAID-1 em /dev/md0 :

Existem abaixo alguns passos que deve seguir antes de criar o software raid 1 no seu nó Linux. Uma vez que já executei esses passos no meu artigo mais antigo, partilharei aqui os hyperlinks

A consideração #1 precisa de ser revisitada se possível. Não precisa de estar numa super capacidade de recuperação de desastres. Contudo, se for concebível empurrar uma cópia do conteúdo (pelo menos dados de trabalho) para uma unidade ou sistema externo enquanto se aprende o que quer que seja (ou se decide fazer um yolo), isso aliviará muita da pressão.

Particionamento com fdisk

Agora temos connosco as nossas divisórias que podemos validar utilizando o lsblk

Configurar raid de software 1

Agora que temos todas as partições connosco, vamos criar um conjunto de software RAID 1 sobre essas partições

Verificar as alterações

Agora desde que o nosso software raid 1 array foi criado com sucesso. Verifique as alterações usando o comando abaixo

Agora o /proc/mdstat reporta informação sobre a matriz e também inclui informação sobre o processo de ressincronização. A ressincronização tem lugar sempre que um novo array que suporta redundância de dados é inicializado pela primeira vez. O processo de ressincronização assegura que todos os discos de um espelho contêm exactamente os mesmos dados.

A ressincronização é cerca de 40% feita e deve ser completada dentro de algum tempo com base no tamanho do seu software raid 1 array.

Criar sistema de ficheiros

Agora que o nosso software raid 1 array está pronto, vamos criar um sistema de ficheiros em cima dele para que possa ser utilizado para armazenar dados. Para o bem deste artigo, criarei um sistema de ficheiros ext4, mas poderá criar qualquer outro sistema de ficheiros no seu software raid 1 de acordo com as suas necessidades.

Para verificar os detalhes do software raid 1 array pode usar o comando abaixo

Criar ponto de montagem

A seguir, precisamos de um ponto de montagem para aceder ao sistema de ficheiros de raid 1 array de software.

Agora, uma vez que temos o nosso ponto de montagem e montamos o nosso software raid 1 array no nosso ponto de montagem. Vamos verificar os detalhes do nosso software de raid 1 array.

Assim, agora este software raid 1 array pode ser utilizado para armazenar os seus dados. Mas actualmente, uma vez que montamos temporariamente este sistema de ficheiros, ele não estará disponível após reinicialização.

Para fazer as alterações reiniciar persistentemente , adicione o conteúdo abaixo no seu /etc/fstab

A seguir, guarde o seu ficheiro e reinicie o seu nó. Quando o nó estiver UP, certifique-se de que o seu software raid 1 está montado no seu ponto de montagem, isto é, o seu ficheiro é reiniciado.

Configure o RAID 1 do software com disco de reserva

Quando um disco falha, é útil poder promover automaticamente outro disco na matriz para substituir o disco falhado, por isso é bom adicionar um disco de reserva enquanto se configura um raid de software 1.

O parâmetro do disco sobresselente é combinado com o parâmetro do dispositivo para definir discos que serão inseridos na matriz quando um disco membro falhar. Neste artigo adicionei um novo disco virtual para demonstrar a criação de software raid 1 array com disco sobressalente.

Se estiver a utilizar mdadm , a bandeir a-x define o número de discos sobresselentes. Os discos membros são analisados da esquerda para a direita na linha de comando. Assim, os dois primeiros discos listados neste exemplo ( /dev/sdb1 e /dev/sdc1 ) tornam-se os membros RAID activos, e o último disco ( /dev/sdd1 ) torna-se o disco sobresselente.

Se um disco desta matriz falhar, o kernel removeria a unidade falhada (/dev/sdb1 ou /dev/sdc1 ) de /dev/md0 , inserir /dev/sdd1 na matriz e iniciar a reconstrução. Neste caso /dev/sdb1 falhou (à força), como indicado por (F) na seguinte listagem.

O condutor md inseriu automaticamente o disco /dev/sdd1 de reserva e iniciou a recuperação.

Para verificar o detalhe do software raid 1 array /dev/md0

Finalmente, espero que os passos do artigo para configurar o software raid 1 array com e sem disco de reserva no Linux tenham sido úteis. Por isso, deixem-me conhecer as vossas sugestões e feedback usando a secção de comentários.

Artigos relacionados

Não encontrou o que procurava? Faça uma pesquisa rápida através do GoLinuxCloud

Se os meus artigos no GoLinuxCloud o ajudaram, por favor, considere comprar-me um café como uma prova de apreço.

Para quaisquer outros feedbacks ou perguntas pode utilizar a secção de comentários ou contactar-me através do formulário.

Obrigado pelo seu apoio!!

2 pensamentos sobre o “Tutorial Passo a Passo”: Configurar o software RAID 1 no Linux”.

Olá. Obrigado por este tuto. Estou alojado com OVH num modelo Proxmox em 2 x 480Gb SSD em RAID1 (md1 e md5). Este servidor tem 2 x 2Tb HDD (sdc e sdd) que eu coloquei em RAID1 (md6). Posso montá-lo e aceder à unidade. O meu servidor pode reiniciar bem, mas assim que eu adicionar a montagem no FSTAB, já não arranca. Não tenho um KVM, por isso preciso de reformatar tudo e reinstalar o meu ProxMox. O que posso fazer para o pôr a funcionar durante uma reinicialização?

Olá, o que está a usar para montar a partição adicional em /etc/fstab? Pode por favor partilhar essa linha? Não necessita de re-formatar, nestes casos deverá obter uma solicitação de manutenção onde deverá poder modificar a fstab ou pode entrar no modo de emergência utilizando Live DVD. Mas vamos tentar resolver primeiro este problema. Também espero que este /dev/md6 esteja acessível durante a inicialização?

Início

Fóruns

Ambiente Virtual Proxmox

Proxmox VE: Instalação e configuração

EinsGehtNoch

Novo Membro

Reuni um home-server. Principalmente para re

Instalei sem problemas maiores Proxmox e para testar o Ubuntu Server e Ubuntu Desktop (ambos como VMs) dentro do Proxmox. Aqui também não há grandes problemas.

Estou agora a debater-me com a configuração básica para as funções principais de servidor de ficheiros e servidor de dados para a próxima nuvem. Tenho estado a ler nas últimas semanas, mas não consigo descobrir o caminho certo

O que é que faz mais sentido para si?

Deixe que o Proxmox trate do sistema de armazenamento de ficheiros (espelho ZFS / RAID 1 por software) e de alguma forma deixe o servidor de ficheiros VM (Ubuntu Server) aceder ao mesmo.

Passe os discos rígidos directamente para o servidor de ficheiros, e crie aí um RAID.

A primeira opção parece-me mais simples. Também o anfitrião (Proxmox) reclama recursos de sistema não utilizados, conforme necessário. Mas qual seria a melhor maneira, para aceder ao armazenamento ZFS a partir do VM?

  • ========================================== Hardware (por agora): Supermicro X11SSM-F G4400 16 GB ECC RAM 32 GB SSD (HDD do sistema: Proxmox, VMs, ISOs, . ) 2×3 TB HDD de NAS antigo para armazenamento de dados (2x 4 TB HDD para várias utilizações e para substituir um dos antigos HDD de 3 TB se necessário)
  • Existem vários guias para a criação de RAID’s de software no Ubuntu na Internet. A maioria deles não é muito abrangente ou difícil de compreender e seguir. É por isso que criámos este tutorial tão fácil de usar quanto possível. Fotos em cada passo e instruções detalhadas. Na verdade, pode ser um pouco abrangente, mas não faz mal. Pelo menos terá a certeza de ter criado o RAID correctamente. Se tiver alguma dúvida ou se tiver algum problema, sinta-se à vontade para deixar um comentário abaixo e nós tentaremos ajudar.
  • Os RAIDs de software Linux funcionam de forma diferente dos RAIDs de hardware normais. São baseados em partições, em vez de se basearem em disco. Isto significa que deve criar partições correspondentes em todos os discos antes de criar o RAID. Os RAIDs de hardware têm de adicionar os discos ao RAID e depois criar a partição.
  • Este tutorial foi criado durante a instalação do Ubuntu 12.04 64 bit Server Edition. Pretende-se que seja o primeiro de uma série de tutoriais RAID de software Linux. Os futuros tutoriais cobrirão tópicos como a forma de recuperar de um disco avariado.

Este servidor tem dois discos de 16GB instalados. Iremos criar 2 partições: uma partição swap de 2GB e uma partição raiz de 14GB. Depois de terminarmos, o servidor permanecerá em funcionamento se um dos dois discos falhar. A maioria das imagens neste tutorial são auto-explicativas. A opção que precisa de escolher será destacada. Forneceremos comentários sobre a imagem, se houver alguma consideração especial.

Para começar, execute o instalador do Ubuntu. Quando obtiver o menu ‘Partições de discos’, escolha ‘Manual’:

Neste caso, os discos são novos e não existem tabelas de partição. Seleccione cada disco para criar uma tabela de partição:

Seleccione o espaço livre no primeiro disco para criar partições no mesmo:

A primeira partição será de 2GB no início do disco (isto será utilizado para espaço de swap):

Pode deixar as configurações de partição como padrão. Após a criação do RAID, estas partições serão sobrescritas, pelo que não há necessidade de as configurar aqui:

  1. Seleccione o espaço livre restante no primeiro disco para criar a 2ª partição. Neste caso, estaremos a utilizar o espaço livre remanescente para esta partição:
  2. Mais uma vez, não se preocupe com a configuração da partição aqui. Deixe-a nos valores por defeito:

Depois de criar as 2 partições no primeiro disco, repetir o processo e criar partições idênticas no segundo disco.

Deverá agora ver tamanhos de partição idênticos em ambos os discos. Escolha ‘Configurar RAID por software’ para começar a criar o RAID por software:

Mais uma vez, o RAID de software Linux é baseado em partições, pelo que teremos de criar 2 RAIDs, 1 para cada um dos nossos conjuntos de 2 partições. Escolher ‘Criar dispositivo MD’ para começar a criar o primeiro:

Este passo pode ser confuso para algumas pessoas. O nosso primeiro RAID consistirá em 2 partições (as partições de 2GB em cada um dos discos), por isso escolha 2 dispositivos activos:

Neste exemplo, não estamos a utilizar nenhum dispositivo de reserva:

Seleccionar apenas as partições de 2GB. Deverá haver uma em cada disco:

Será levado de volta para o menu de configuração RAID. Escolha ‘Criar dispositivo MD’ para começar a criar o 2º RAID:

Escolha ambas as partições de 14GB (mais uma vez, deve haver uma em cada disco):

Escolher ‘Terminar’ para completar a configuração RAID.

Agora particionamos os 2 RAIDs. Verá ‘RAID1 dispositivo #0’ e ‘RAID1 dispositivo #1’. Estes são os únicos de que precisamos para particionar.

Para configurar a partição RAID swap, seleccione o dispositivo RAID de 2GB listado sob ‘Dispositivo RAID1 #0’:

Para ‘Use as’, seleccione ‘área de troca’ e depois escolha ‘Done setting up the partition’:

Será levado de volta para o menu de particionamento. Seleccione o 2º dispositivo RAID (neste caso, é o de 14GB) a partir do menu. Pode configurar o dispositivo RAID com qualquer sistema de ficheiros de que necessite, mas vamos com o padrão, Ext4. Para o ‘Ponto de montagem’, faça-o a raiz, seleccionando “/”. Agora escolha “Done setting up the partition” (Feito a configuração da partição):

Os seus dispositivos RAID devem ser particionados de forma semelhante ao que está listado abaixo. Escolha ‘Terminar o particionamento e gravar alterações no disco’:

Normalmente, a razão pela qual o RAID é implementado é para que o sistema operativo continue a funcionar no caso de uma única falha do disco. Escolha ‘Sim’ aqui para que não veja quaisquer interrupções ao arrancar com um disco avariado:

Quase pronto! O sistema operativo continuará a ser instalado no RAID que instalar:

Após a instalação do sistema operativo, ser-lhe-á pedido que instale o GRUB. Escolha SIM para o instalar no Master Boot Record:

Como pode ver, instalar o GRUB no Master Boot Record irá instalá-lo em ambos os discos rígidos, (/dev/sda & /dev/sdb).

É isso! Após a instalação estar completa, deverá ser capaz de arrancar para o SO. Se perder um disco rígido, o sistema operativo continuará a funcionar sem interupção.

Aqui estão alguns links que poderá considerar úteis se tiver dúvidas sobre este processo (ou deixe um comentário abaixo e podemos tentar ajudar):

Embora o foco deste guia seja o hardware, vale a pena primeiro discutir brevemente as opções do sistema operativo do servidor de ficheiros doméstico.

Windows Home Server 2011

A Microsoft lançou a sua última versão do WHS no início deste ano. Pode ser encontrada regularmente por 50 dólares ou menos quando está à venda. De todos os sistemas operativos de servidor de ficheiros disponíveis, o WHS2011 é o mais fácil de configurar e administrar para utilizadores familiarizados com a série de sistemas operativos Windows e menos familiarizados com Unix ou Linux. Se tiver instalado e configurado o Windows XP, Vista, ou 7, pode

O FreeBSD é, claro, gratuito. Por ser um sistema operativo Unix, requer tempo e esforço para aprender a utilizar. Enquanto a sua instalação utiliza um sistema antigo baseado em texto e a sua interface é baseada em linha de comandos, pode administrá-lo a partir de um PC Windows utilizando um terminal como o PuTTY. Geralmente não recomendo o FreeBSD a utilizadores não familiarizados com Unix. No entanto, se estiver intrigado com o mundo do Unix e estiver interessado em fazer a sua primeira incursão num sistema operativo não Windows, a instalação de um servidor de ficheiros é uma experiência de aprendizagem relativamente fácil em comparação com outros projectos Unix.

FreeNAS é baseado em FreeBSD mas é construído especificamente para funcionar como um servidor de ficheiros. Apresenta uma interface web intuitiva e fácil de usar, bem como uma interface de linha de comando. Tanto o FreeBSD como o FreeNAS suportam ZFS, um sistema de ficheiros como NTFS e FAT32. O ZFS oferece muitos benefícios ao NTFS, tais como, funcionalmente (para o utilizador doméstico), tampas de tamanho ilimitado de ficheiros e partições, autorepair, e RAID-Z. Embora se destine mais a utilizadores empresariais e comerciais do que a consumidores, Matt escreveu um artigo que tem muita informação útil sobre o ZFS no ano passado.

Ubuntu e Samba

O Ubuntu é indiscutivelmente a distribuição Linux mais fácil para os utilizadores de Windows aprenderem a utilizar. Não surpreende, portanto, que tenha a maior base de instalação de qualquer distro Linux com mais de 12 milhões. Embora exista um Ubuntu Server Edition, uma das formas mais fáceis de transformar o Ubuntu num servidor de ficheiros doméstico é instalar e utilizar o Samba. (Samba pode ser usado não só no Ubuntu, mas também no FreeBSD.) O Samba é especialmente útil se tiver clientes mistos (i. e. Windows, OS X, e Unix/Linux) usando o seu servidor de ficheiros doméstico. Embora o FreeNAS funcione certamente com clientes Windows, Samba estabelece o padrão para uma integração perfeita com Windows e a interoperabilidade é um dos seus focos.

Sucintamente, WHS2011 é muito fácil de usar, mas custa dinheiro. Instalar o Ubuntu e o Samba não é particularmente difícil, e mesmo que nunca tenha utilizado qualquer tipo de Linux antes, é provável que possa ter um servidor de ficheiros domésticos de Samba a funcionar de manhã ou à tarde. FreeNAS é sem dúvida um pouco mais desafiante do que o Ubuntu com Samba, mas ainda dentro de algumas horas de compreensão do principiante. O FreeBSD é potencialmente muito mais capaz do que o WHS, Ubuntu/Samba, e FreeNAS, mas muitas das suas características são na sua maioria irrelevantes para um servidor de ficheiros doméstico e a sua curva de aprendizagem é bastante íngreme. Quando correctamente configuradas, todas as soluções acima referidas são suficientemente seguras para um utilizador doméstico típico. Mais importante ainda, todas estas opções funcionam apenas para um servidor de ficheiros doméstico. Uma comparação extensa dos prós e contras de cada sistema operativo no contexto de um servidor de ficheiros doméstico está fora do âmbito deste artigo, mas agora que cobrimos algumas opções de sistema operativo que merecem a sua consideração, vamos ao hardware!

RAID 0 irá criar striping para aumentar a velocidade de leitura/escrita, uma vez que os dados podem ser lidos e escritos em discos separados ao mesmo tempo. Este nível de RAID é o que pretende utilizar se precisar de aumentar a velocidade de acesso ao disco. Terá de criar partições com conhecimento RAID nas suas unidades antes de poder criar RAID e terá de instalar mdadm no Ubuntu.

Estes comandos devem ser feitos como root ou deve adicionar o comando sudo em frente de cada comando.

# mdad m-create /dev/md 0-level= 0-raid-devices=2 /dev/sdb5 /dev/sdb6

-criar Isto irá criar uma matriz RAID. O dispositivo que irá utilizar para a primeira matriz RAID é /dev/md0.

-nível=0 A opção de nível determina qual o nível RAID que irá utilizar para o RAID.

-raid-devices=2 /dev/sdb5 /dev/sdb6 Nota: para ilustração ou prática isto mostra duas partições na mesma unidade. Isto NÃO é o que se pretende fazer, as divisórias devem estar em unidades separadas. No entanto, isto irá proporcionar-lhe um cenário de prática. Deve listar o número de dispositivos na matriz RAID e deve listar os dispositivos que particionou com o fdisk. O exemplo mostra duas partições RAID. mdadm: array /dev/md0 iniciado.

Verifique o desenvolvimento do RAID.

md0 : raid activo0 sdb6[1] sdb5[0]

995712 blocos 64k pedaços de dispositivos não utilizados:

# cauda /var/log/mensagens Pode também verificar que o RAID está a ser construído em /var/log/mensagens.

19 de Maio 09 09:08:51 ub1 kernel: [ 4548.276806] raid0: olhando para sdb5

19 de Maio 09 09:08:51 ub1 kernel: [ 4548.276809] raid0: comparando sdb5(497856) com sdb6(497856)

19 de Maio 09 09:08:51 ub1 kernel: [ 4548.276813] raid0: EQUAL

19 de Maio 09 09:08:51 ub1 kernel: [ 4548.276815] raid0: FINAL 1 zonas

19 de Maio 09 09:08:51 ub1 kernel: [ 4548.276822] raid0: feito.

19 de Maio 09 09:08:51 ub1 kernel: [ 4548.276826] raid0 : md_size é 995712 blocos.

hash_spacing é de 995712 blocos.

19 de Maio 09 09:08:51 ub1 kernel: [ 4548.276831] raid0 : nb_zone é 1.

19 de Maio 09 09:08:51 ub1 kernel: [ 4548.276834] raid0 : Atribuição de 4 bytes para hash.

Criar o sistema de ficheiros ext 3 Tem de colocar um sistema de ficheiros no seu dispositivo RAID. Neste exemplo, o sistema de arquivo ext3 é colocado no dispositivo.

# mke2f s-j /dev/md0

mke2fs 1.40.8 (13-Mar-2008)

Tamanho do bloco=4096 (log=2)

Tamanho do fragmento=4096 (log=2)

62464 inodes, 248928 blocos

12446 blocos (5,00%) reservados para o super utilizador

Primeiro bloco de dados=0

Máximo de blocos de sistemas de ficheiros=255852544

32768 blocos por grupo, 32768 fragmentos por grupo

7808 inodes por grupo

May 19 09:08:51 ub1 kernel: [ 4548.276829] raid0 : conf->Backups Superblock armazenados em blocos:

32768, 98304, 163840, 229376

Escrever tabelas inode: feito

Criação do diário (4096 blocos): feito

Escrever super-blocos e informação contabilística do sistema de ficheiros: feito

Este sistema de ficheiros será verificado automaticamente a cada 39 montagens ou

180 dias, o que vier primeiro. Usar tune2f s-c o u-i para anular.

Criar um Local para Montar o RAID no Sistema de Ficheiros

A fim de utilizar a matriz RAID terá de a montar no sistema de ficheiros. Para fins de teste, pode criar um ponto de montagem e testar. Para criar um ponto de montagem permanente terá de editar o /etc/fstab.

Montar o RAID Array

# montar /dev/md0 /raid

Deverá ser capaz de criar ficheiros na nova partição. Se isto funcionar, então poderá editar o /etc/fstab e adicionar uma linha que se pareça com esta:

/dev/md0 /raid defaults 0 2

Certifique-se de testar e estar preparado para entrar em modo de utilizador único para corrigir quaisquer problemas com o novo dispositivo RAID.

Espero que considere este artigo útil.

2 comentários

“Isto é realmente interessante, És um blogueiro muito hábil. Juntei-me ao seu feed e estou ansioso por procurar mais do seu magnífico post. Além disso, partilhei o vosso sítio na Internet nas minhas redes sociais”!

disk, use a ferramenta disk para criar uma partição raid no disco 1, apague toda a partição no disco 2 e automaticamente a ferramenta disk atribuirá o disco 2 como membro raid 3) reinstale o ubuntu, seleccione

$ sudo apt install gdisk $ sudo gdis k-l /dev/sda $ sudo gdis k-l /dev/sdb

1. Демонтаж существующих RAID устройств (например для переустановки или использования дисков) картинки соответствуют Ubuntu 16.04

Вид с рабочей системы:

$ lsbl k-o NOME, TAMANHO, TIPO, TIPO, MOUNTPOINT

$ sudo mdad m-detail /dev/md0

Грузимся с livecd

$ sudo add-apt-repository universe $ sudo apt update $ sudo apt install ssh mc mdadm

========================================== Можно пропустить пароль Для удобства можно пользователь подключиться удаленно: (пользователь ubuntu) Установить пароль $ passwd $ ip a . 192.168.1.239 .

Descobri recentemente o Turnkey e a sua pletora de opções de aplicação. é verdadeiramente excitante. Construí vários servidores de ficheiros, pelo que o meu primeiro projecto foi experimentar o Servidor de Ficheiros Turnkey. A instalação correu extremamente bem utilizando o ISO para instalar num servidor de metal nu. O servidor tem 3 unidades instaladas, por isso instalei o SO numa única unidade com a intenção de criar um RAID 1 com as outras duas unidades.

É aqui que estou perplexo. Tentei procurar nos documentos como configurar a unidade RAID, mas não consigo encontrar informações claras sobre como isto é feito a partir da Webmin. Tendo construído vários servidores de ficheiros usando OpenMediaVault, a configuração RAID em OMV é muito directa e racionalizada. Estou a ter dificuldade em descobrir como construir o RAID usando o Turnkey.

Encontrei este link para a configuração do RAID com Webmin.

O tutorial é claro, mas não consigo passar do passo 1 pois não vejo forma de alterar uma partição de disco para “RAID Linux” sem ir ao CL ou arrancar para uma drive USB e alterá-lo com GParted.

Então. existe algum tutorial para Turnkey que explique um passo a passo para a configuração de uma matriz RAID da Webmin?

The simplest way to install Raid 0 ubuntu 20.04 is. 1) Install ubuntu in a smallest partition first as usual 2) Activities ->Obrigado de antemão. Ken

Um passo à frente, um passo atrás.

OK. acabou de descobrir como alterar o tipo de partição para RAID Linux a partir de Webmin. Assim, consegui alterar o tipo de partição para RAID Linux nas unidades 2 e 3. No entanto, reparei que ao clicar em RAID Linux no menu, recebi o seguinte erro.

O ficheiro de estado RAID kernel /proc/mdstat não existe no seu sistema. O seu kernel provavelmente não suporta RAID.

Existe alguma razão para que a opção RAID não exista no sistema.

Mais um passo

Um pouco mais de investigação e descobri que o módulo “mdadm” aparentemente não está instalado no “Turnkey File Manager”. Portanto, o módulo “mdadm”. Entrei no SSH e instalei o módulo “mdadm” no sistema. Após uma reinicialização, as opções RAID linux finalmente apareceram.

Contudo, mesmo após a instalação do mdadm tentei criar um array RAID 1 e o sistema nunca se move para a fase seguinte para seleccionar as partições para o array. passo 3 no tutorial.

Por isso, ainda estou preso.

Olá Ken

Lamento saber dos seus problemas na criação de RAID.

Infelizmente, acho que não vou ser de grande ajuda para si.

Nunca instalei RAID por software (na verdade, nunca instalei qualquer tipo de RAID). Sempre tive a intenção de jogar com ele, mas nunca tive a necessidade (sempre usei apenas LVM e confiei em backups).

Além disso, tenho uma preferência pessoal pela linha de comando, por isso não tenho uma tonelada de experiência com Webmin. Utilizo Proxmox como Hypervisor e corro tudo como VMs ou contentores, por isso também tenho muito pouca experiência com Linux em metal nu.

Dito tudo isto, deveria certamente ser possível. Debaixo da capa, TurnKey é Debian. v14.x é baseado em Debian Jessie e o nosso próximo (e bem atrasado) lançamento v15.0 será baseado em Debian Stretch. Nós próprios construímos os pacotes Webmin, mas para além do nosso módulo TKLBAM, todo o código vem do próprio Webmin.

Vejo que instalou o mdadm. AFAIK que deve ser a única dependência/requisito.

No entanto, por interesse, o vosso pedido de assistência ajudou-me a descobrir um bug na nossa próxima v15.0! Por isso, obrigado por isso! (FWIW para si. ).

Tentei seguir o tutorial que me ligou (usando uma v14.2 VM que eu tinha à mão). Penso que me pode ter escapado algo, mas também não vai funcionar para mim. No entanto, a minha experiência parece um pouco diferente da sua. Cheguei até ao ecrã “Opções de dispositivos RAID” mas só vejo uma “Partições em RAID” (e a mesma que aparece em “Partições de reserva”). Se eu tentar continuar, então recebo um erro “Failed to create RAID : Pelo menos 2 partições devem ser seleccionadas para espelhamento”. Portanto, isso é um pouco falho.

Preciso realmente de voltar ao desenvolvimento v15.0 para que possamos empurrá-lo para fora da porta, por isso não me posso realmente dar ao luxo de gastar mais tempo com isto agora mesmo. A única outra coisa que eu poderia sugerir, é tentar a partir da linha de comando. Uma das (muitas) razões pelas quais prefiro a linha de comando é que, a menos que se veja um vídeo, acho que é bastante fácil interpretar mal as coisas, perder passos vitais, ou clicar na coisa errada quando se usa uma GUI. Acho que usar tutoriais de linha de comando é geralmente mais fiável, pois é mais difícil interpretar mal as coisas e muitas vezes mensagens de erro dão sinais claros sobre qualquer coisa que não esteja a funcionar como deveria (e muitas vezes apontam para o porquê, ou pelo menos dão uma mensagem de erro para o Google). É também muito mais fácil descobrir exactamente o que os comandos estão realmente a fazer (por exemplo, através das páginas de homem, ou mesmo do google). FWIW fiz um google rápido para si e encontrei um tutorial que pode valer a pena tentar. É para uma versão anterior de Debian (Squeeze era a anterior a Jessie) mas eu esperaria que fosse semelhante, se não a mesma (como sugerido acima, qualquer coisa que não funcione, tente pesquisar no Google mensagens de erro explícitas).

Se preferir persistir com Webmin, então talvez considere postar nos fóruns de apoio Webmin. Eles provavelmente poderão ajudá-lo muito mais do que eu. Note que o tema Webmin que fornecemos por defeito é diferente do que Webmin usa por defeito (embora mudaremos para o tema por defeito para v15.0) e é uma versão mais antiga, mas caso contrário, tudo deve ser como esperado. Como notei acima, a base de TurnKey v14.x é Debian Jessie.

Desculpe, não pude simplesmente guiá-lo para os passos exactos necessários, mas espero ter sido de alguma ajuda. Boa sorte com ele e se conseguir resolvê-lo, por favor envie de volta, pois tenho a certeza de que outros utilizadores o acharão útil.

 O RAID por software Linux (muitas vezes chamado mdraid ou MD/RAID ) torna possível o uso de RAID sem um controlador RAID por hardware. Para este fim,

Em contraste com o RAID por software, os controladores RAID por hardware têm geralmente um cache incorporado (muitas vezes 512 MB ou 1 GB), que pode ser protegido por uma BBU ou ZMCP. Tanto com matrizes RAID de hardware como de software, seria uma boa ideia desactivar as caches de escrita para discos rígidos, a fim de evitar a perda de dados durante falhas de energia. Os SSDs com condensadores integrados, que escrevem o conteúdo da cache para o FLASH PROM durante falhas de energia, são a excepção a isto (tais como os SSDs Intel Série 320).

Conteúdos

1 Abordagem funcional

2 Superbloqueio RAID

2.1 Superblock Metadata Versão 0.90

2.2 Superbloco de Metadados Versão 1.*

3.1 Preparação de Partições

4.1 Testar o Alinhamento

4.2 Ajustar a Taxa de Sincronização

Abordagem Funcional

Uma matriz RAID de software Linux suportará os seguintes níveis RAID: [1]

RAID 0

RAID 1

RAID 4

RAID 5

RAID 6 [2]

RAID 10

Superbloqueio RAID

Uma matriz RAID de software Linux armazenará toda a informação necessária sobre uma matriz RAID num superbloco. Esta informação será encontrada em diferentes posições, dependendo da versão dos metadados.

Superblock Metadata Versão 0.90

O superbloco da versão 0.90 tem 4.096 bytes de comprimento e está localizado num bloco alinhado com 64 KiB no final do dispositivo. Dependendo do tamanho do dispositivo, o superbloco pode começar em 128 KiB antes do fim do dispositivo ou 64 KiB antes do fim do dispositivo, o mais tardar. Para calcular o endereço do superbloco, o tamanho do dispositivo deve ser arredondado para baixo para o 64 KiB mais próximo e depois 64 KiB deduzidos do resultado. [3]

Versão 0.90 Limitações de Metadados:

  • 28 dispositivos, no máximo, numa matriz
  • cada dispositivo pode ter um tamanho máximo de 2 TiB
    • Nenhum apoio à má gestão de blocos [4]
    • Superblock Metadata Versão 1.*
    • A posição do superbloco depende da versão dos metadados: [5]
    • Versão 1.0: O superbloco está localizado no fim do dispositivo.
    • Versão 1.1: O superbloco está localizado no início do dispositivo.

    Versão 1.2: O superbloco é 4 KiB após o início do dispositivo.

    Criação de um RAID Array

    • O exemplo seguinte mostrará a criação de uma matriz RAID 1. Um sistema Fedora 15 ao vivo será utilizado no exemplo.
    • Preparação de Partições
    • A matriz RAID do software abrangerá o /dev/sda1 e o /dev/sdb1. Estas partições terão o tipo autodetecção de raid Linux (fd):
    • Criação de um RAID 1
    • O progresso do processo de inicialização pode ser solicitado através do sistema de arquivo proc ou mdadm:
    • Teste do Alinhamento

    Os metadados da versão 1.2 serão utilizados no exemplo. Os metadados estão assim próximos do início do dispositivo com os dados reais depois dele, embora alinhados na fronteira de 1 MiB ( Offset de dados: 2048 sectores , um sector tem 512 bytes):

    Dependendo da versão do mdadm, o tamanho do desvio dos dados varia:

    Nota: a versão de desenvolvimento actual do mdadm permite especificar manualmente o tamanho do offset de dados (par a-criar, – criar, – criar, não par a-add): Acrescenta r-data – bandeira de offset de dados para Criar e Crescer

    tamanho ainda está disponível, apenas reduza o ‘reservado’, não o aumente. Isto repara um bug ond e-adicionar um spare falha porque não tem espaço suficiente nele.

    desde mdadm-3.2.4: 128 MiB Data Offset (262144 sectores) super1: deixar mais espaço em frente dos dados por defeito. (04.04.2012): O núcleo está a aumentar a capacidade de evitar a necessidade de um ficheiro de cópia de segurança durante a remodelação, ao ser capaz de alterar a compensação dos dados. Para que isto seja útil, precisamos de muito espaço livre antes dos dados, para que a compensação dos dados possa ser reduzida. Assim, para os metadados v1.1 e v1.2, o offset de dados por defeito é muito maior. Apontar para 128Meg, mas manter uma potência de 2 e não utilizar mais de 0,1% de cada dispositivo. Não alterar a v1.0, pois esta é utilizada quando o data_offset é necessário ser zero.

    • desde mdadm-3.1.2: 1 MiB Data Offset (2048 sectores) super1: encorajar o alinhamento de dados em 1Meg limite (03.03.2010): Para metadados 1.1 e 1.2 em que data_offset não é zero, é importante alinhar o data_offset com o tamanho do bloco subjacente. Não temos actualmente acesso ao dispositivo específico em tamanho_disponível, por isso basta tentar forçar para um limite de 1Meg. Também os metadados padrão de 1,x para 1,2, conforme documentado. (ver também Re: Mistura de versões mdadm)
    • Ajustar a taxa de sincronização
    • Um volume RAID pode ser utilizado imediatamente após a criação, mesmo durante a sincronização. No entanto, isto reduz a taxa de sincronização.

    Neste exemplo, ao aceder directamente a um array RAID 1 abrangendo dois SSDs (sem partições em /dev/sda e /dev/sdb), a sincronização começa em cerca de 200 MB/s e cai para 2,5 MB/s assim que os dados são escritos no sistema de ficheiros do array RAID 1:

    A sincronização pode ser acelerada através do aumento manual da taxa de sincronização: [6]

    • Eliminação de um RAID Array
    • Se já não for necessário um volume RAID, este pode ser desactivado utilizando o seguinte comando:
    • O superbloco para os dispositivos individuais (neste caso, /dev/sda1 e /dev/sdb1 do exemplo acima) será apagado através dos seguintes comandos. Ao fazer isto, poderá reutilizar estas partições para novas matrizes RAID.

    Roteiro

    Neil Brown publicou um roteiro para MD/RAID para 2011 no seu blogue:

    O suporte para a funcionalidade ATA trim para SSDs (suporte de descarte de software RAID Linux) é discutido periodicamente. Contudo, esta característica é ainda o fim da lista de características futuras (até ao final de Junho de 2011):

    • since mdadm-3.2.5: 128 MiB Data Offset (262144 sectors), if possible: super1: fix choice of data_offset. (14.05.2012): While it is nice to set a high data_offset to leave plenty of head room it is much more important to leave enough space to allow of the data of the array. So after we check that sb->