Categories
es

Cómo configurar software raid para un servidor de archivos simple en ubuntu

¿No se puede usar la opción del asistente manual al elegir disco en la instalación de ubuntu?

momurda Yo configure esas particiones usando el asistente manual durante el instalador.

Hay una opción de software raid en el asistente de configuración manual de disco. Raid 10 es una de las opciones. Luego te permite elegir particiones de cada dispositivo de disco para añadir a md.

Si tienes esas 3 particiones(/boot, /swap, /) en cada disco, haz md0 raid10 punto de montaje /boot como ext4, md1 raid10 punto de montaje /swap como swap, md2 raid10 punto de montaje / como ext4

Tengo el SWAP y / configurado en sus propios RAIDs. Cada vez que he intentado montar en RAID la partición de arranque, la instalación de GRUB falla; creí haber leído en alguna parte que a GRUB no le gustaba instalarse en un RAID 10.

Sólo por probar, rehice mis particiones de la forma que sugeriste, y GRUB no se instala.

¿Qué ISO/instalador está utilizando?

La descarga estándar en ubuntu. com le ofrecerá ubuntu-18.04.4-live-server-amd64.iso

Esto incluye un nuevo (ish) instalador llamado Subiquity y he tenido un montón de problemas con él conseguir que jugar bien cuando se trata de configuraciones de disco más avanzadas utilizando LVM, ZFS y otras cosas. Es posible que estés teniendo problemas para conseguir que estos niveles de Software RAID funcionen también.

En general, creo que a menos que esté haciendo una instalación simple y directa, utilice el instalador alternativo en su lugar. Descargar desde http://cdimage. ubuntu. com/releases/18.04/release/ La ISO se llamará ubuntu-18.04.3-server-amd64.iso

Este es el instalador anterior antes de que Subiquity entrara en escena. Su particionado avanzado y configuración de disco es, bueno, más avanzado.

Habiendo dicho todo esto, no estoy 100% seguro de si RAID10 funciona con Grub2 por lo que este instalador alternativo puede no hacer el trabajo para usted.

Si Grub2 funciona con RAID10 y el asistente/instalador no, entonces puede que sólo tengas que realizar una instalación manual completa. Esto implica utilizar la ISO de escritorio que incluye una opción Live. Una vez en el sistema Live, vaya a shell, particione, monte e instale manualmente.

Utilice esta guía como punto de partida. Está basada en ZFS, pero puedes ajustarla a tus necesidades. Te da al menos una idea básica de lo que estás buscando tener que hacer. https://github. com/openzfs/zfs/wiki/Ubuntu-18.04-Root-on-ZFS

Tengo curiosidad por saber si el instalador alternativo hará el truco para evitar esta forma complicada de hacerlo. Si usted quiere darle una oportunidad, yo estaría feliz de probar junto con usted para el valor académico. Yo uso una versión modificada de los métodos de la guía anterior para hacer funcionar mis servidores Linux con ZFS en /boot y root. Estos métodos asumen EFI, sin embargo. Eso puede convertirse en un punto de fricción, pero estoy seguro de que se puede trabajar alrededor.

Parte del beneficio del instalador alternativo es que nos permite instalar Ubuntu en formas que normalmente no están disponibles con el instalador en vivo. Una de las características adicionales es poder instalar Ubuntu en RAID por software, que es lo que haremos en esta sección. Aquí, los pasos que vamos a seguir en realidad continúan desde el paso 14 de la sección anterior. Sigue estos pasos para configurar una instalación con RAID por software, concretamente con RAID1 entre dos discos en este caso.

  1. En la sección anterior, elegimos Guided – use entire disk en la pantalla que se muestra en la siguiente captura. Para configurar RAID, seleccionaremos Manual en esta pantalla:
  1. A continuación, seleccionaremos el primer disco y pulsaremos Intro :
  1. A continuación, se le preguntará si desea crear una nueva tabla de particiones en este disco, lo que borrará todos los datos del mismo. Elige Sí y pulsa Intro :
  1. En la siguiente pantalla, selecciona el segundo disco (el que aún no hemos inicializado) y pulsa Intro :
  1. Se le preguntará de nuevo si desea crear una nueva tabla de particiones. Selecciona Sí y pulsa Intro :
  1. En la siguiente pantalla, elegiremos la opción Configurar RAID por software:
  1. Antes de continuar, el instalador debe finalizar los cambios que hemos realizado hasta el momento (que por ahora sólo ha sido inicializar los discos). Seleccione Sí y pulse Intro :
  1. A continuación, seleccione Crear dispositivo MD y pulse Intro :
  1. A continuación, seleccionaremos el tipo de RAID con el que queremos trabajar. Seleccione RAID1 y pulse Intro para continuar:
  1. A continuación, elegiremos el número de discos que añadiremos al RAID1. RAID1 requiere exactamente dos discos. Introduzca aquí 2 y pulse Intro :
  1. Si tenemos discos adicionales más allá de dos, podemos añadir uno o más hot spares aquí. Estos se utilizarán en caso de fallo con uno de los discos RAID. Si dispone de un disco adicional, no dude en utilizarlo e introduzca aquí el número correspondiente. En cualquier caso, seleccione Continuar y pulse Intro :
  1. A continuación, elegiremos qué discos incluir en nuestra configuración RAID1. Deberíamos tener exactamente dos en la lista. Utilice las teclas de flecha para desplazarse entre ellos y pulse la barra espaciadora para seleccionar un disco. Necesitamos seleccionar ambos discos, lo que significa que marcaremos ambos con un asterisco ( * ). Una vez seleccionados ambos discos, selecciona Continuar y pulsa Intro :
  1. A continuación, finalizaremos nuestras selecciones hasta el momento. Seleccione Sí y pulse Intro :
  1. Seleccione Finalizar para continuar:
  1. Ahora, hemos configurado RAID con éxito. Sin embargo, eso solo no es suficiente; también necesitamos formatearlo y darle un punto de montaje. Utilice las teclas de flecha para seleccionar el dispositivo RAID que acabamos de configurar y pulse Intro :
  1. Usando la siguiente captura de pantalla como guía, asegúrate de que estableces Usar como sistema de ficheros con registro en diario EXT4 (puedes elegir otro tipo de sistema de ficheros si quieres experimentar). Además, establezca el punto de montaje en / y, a continuación, seleccione Finalizar la configuración de la partición :
  1. Para finalizar nuestra selección, elija Terminar de particionar y escribir los cambios en el disco :
  1. A continuación, veremos una última confirmación antes de que se cree nuestra nueva partición. Seleccione Sí y pulse Intro :

Esto cubre prácticamente todo el proceso de configuración de RAID. A partir de aquí, puedes volver a la sección anterior y continuar con el proceso de instalación con el paso 16. Una vez finalizado todo el proceso de instalación, será útil saber cómo comprobar la salud del RAID. Una vez accedas a tu nueva instalación, ejecuta el siguiente comando:

En la captura de pantalla anterior, puedes ver que estamos usando RAID1 (busca la sección de la salida que dice raid1 activo ). También podemos ver si cada disco de la matriz RAID está en línea, buscando el número apropiado de Us. Es esta línea: 20953088 bloques super 1.2 [2/2] [UU]

Si la salida incluyera U_ o _U en lugar de UU , tendríamos motivo de alarma, porque eso significaría que uno de los discos encuentra

Una cosa a tener en cuenta es que el PC es bastante viejo – sólo tiene 2GB de RAM DDR2 (no estoy seguro del modelo de CPU).

Pensé en instalar CentOS 7 debido a los bajos requisitos del sistema, y el uso de RAID-5. ¿Son buenas opciones para mi configuración? ¿Y cómo puedo configurar RAID-5 en el servidor?

Edición: Supongamos que consigo un tercer disco duro de 500 GB (el sistema operativo va en la unidad de 300 GB). ¿Cómo puedo configurar RAID-5?

1 Respuesta 1

Basándome en tu pregunta, asumo que no tienes mucha experiencia en TI. Perdóname si me equivoco. Le responderé de la forma más sencilla posible.

Sin entrar en detalles técnicos complicados sobre por qué, no se puede hacer RAID-5 con esos discos, ya que se necesitan tres unidades de 500 GB para RAID-5. Con los dos discos de 500 GB, puedes hacer RAID-1, que es mirroring. Tienes que tomar una decisión, invertir una pequeña cantidad de dinero en un tercer disco de 500 GB, o perder la mitad de tu espacio con la duplicación. Busca en Google niveles RAID para saber más. Personalmente, yo instalaría el SO en el disco de 300 GB e invertiría en otro disco para RAID-5, ya que mantendrás la redundancia y perderás menos espacio por la redundancia.

Dado que esta máquina es “vieja” y parece que careces de conocimientos sobre cómo configurar RAID, me mantendría alejado de un SO de servidor como CentOS. En su lugar, yo iría con un sistema operativo más dedicado como OpenMediaVault. OMV es un sistema operativo basado en Linux, pero está diseñado para ser un servidor de archivos dedicado fácil de usar. Tiene gran parte de la distro Linux “bloat” eliminado, por lo que es ligero y requiere pocos recursos. He utilizado OMV y puedo decir que es excelente, estable y fácil de usar. OMV es extremadamente fácil de usar con una sencilla interfaz web. En realidad, una vez que OMV está instalado, se controla totalmente a través de la interfaz web. OMV le guiará a través de la configuración, así como hacer que el RAID que usted decida.

Buenos días a todos. Encontré un problema al instalar Ubuntu en el SuperServer 1028R-WTRT. En principio, ya se han encontrado dos soluciones de trabajo, pero quiero preguntar a la comunidad – cómo todo lo mismo correctamente y de manera óptima. Hay una plataforma SuperServer 1028R-WTRT con MB X10DRW-iT. La tarea consiste en configurar un RAID1 (espejo) utilizando incorporado en la serie C610/X99 chipset sSATA controlador en modo RAID, ya sea RAID de software en la mayoría de Ubuntu (mdadm). El problema es el siguiente, si autopartition el disco en eso y en otro caso obtenemos ya sea pantalla en negro con el cursor después de instalar o caer grub / grub rescate dependiendo de la opción de instalación. Algo similar ya se describió aquí – ¿Cómo ejecutar Ubuntu Server Supermicro Intel Raid 10? .

A través de varios experimentos, se encontró dos soluciones de trabajo:

1. Crear una matriz RAID1 dispositivos de controlador:

2. Utilice arranque en UEFI. Al instalar Ubuntu en un RAID visto como un dispositivo separado:

3. Marque su dispositivo manualmente, creando una partición ext4 con punto de montaje / . Es decir, sin ESP y particiones de intercambio.

Después de eso, todo cargado con éxito. Si le das al instalador para particionar el dispositivo correctamente, es decir, con el establecimiento de ESP, ext4 (/) y de intercambio – después de reboot’and obtener un cursor parpadeante,

Con sitovym RAID en Ubuntu tuve que indagar más. Probé diferentes opciones de arranque en UEFI y Legacy BIOS. Básicamente, el problema se reduce a la incapacidad para instalar GRUB durante la fase de instalación, o de nuevo con la incapacidad para arrancar con el RAID y:

Por las buenas o por las malas cuando softova RAID se encontró con la siguiente disposición (probado en UEFI):

Es decir, en primer lugar marcar ambos discos como de costumbre, con el establecimiento de ESP, ext4 (/) y swap. Todo esto sucede después de algunos reinicios, a continuación, cambiar el tipo de partición ext4 (/) en linux-raid en ambas unidades. A continuación, cree dos particiones linux raid RAID softwary, y ya es ext4 (/) partición. Después de que grub se instalará normalmente y normalmente se carga con un disco (para cargar el segundo, está claro que ESP sólo tiene que inclinarse a otro disco). Opción de trabajo, pero de nuevo, no parece particularmente correcta.

En este sentido una pregunta – tal vez alguien tiene una plataforma similar para operar. ¿Qué opción usaría usted que se describe en la solución # 1 o # 2? Tal vez usted tiene alguna configuración de trabajo que sería más “competente” y “failover”. Agradeceré cualquier consejo y sugerencia.

Instalar linux en software raid. El Gestor de Volúmenes Lógicos se incluye ahora con la mayoría de las distribuciones de Linux. Cualquier nivel RAID por software se aplica siempre a todas las unidades. Esta es una forma de RAID por software que utiliza controladores especiales, y no es necesariamente más rápido que el verdadero RAID por software. 0 port), seleccione la distribución de linux (yo descargué la versión ubunto 16 LTS del sitio de ubuntu, y apunté a su ISO). Mejorar esta pregunta. 04 LTS USB ¿Cómo puedo instalar Windows 10 en un RAID 0 por software? No es posible. Este video tutorial muestra cómo instalar Ubuntu en un RAID 0 matriz. Arranque desde el CD de instalación de Ubuntu para … Instalación de Ubuntu 20. Estoy un poco perdido sobre el proceso. modo ATA legado) por lo que las unidades se ven como individualmente, no en la configuración RAID. Intel ha mejorado MD RAID para soportar metadatos RST y OROM y está validado y soportado por Intel para servidor Intentando instalar Ubuntu server en un array hardware raid 1 en lugar del raid software nativo de linux. 9. No creo que el software RAID de windows funcione bien con linux. Aparece la pantalla de bienvenida a Oracle Linux 8. org) Yannick Loth: Instalando Archlinux con software raid1, sistema de ficheros encriptado y LVM2 (via archivo. /dev/sdb1 1 48632 390636508+ 83 Linux. Paso 5: Haga clic en “Siguiente” para RAID por software. Raid 10 es una de las opciones. Con un poco de ayuda de Cómo instalar Ubuntu server con UEFI y RAID1 + LVM, RAID configurado en Ubuntu 18. raid system-installation. No se puede mover la información de una unidad cuando no hay software para gestionarlo. A continuación, para instalar Ubuntu Linux en Hyper-V, sólo tiene que seguir las recomendaciones del asistente de instalación de Ubuntu Linux y el sistema operativo Linux se configurará en su He estado tratando de instalar Linux en mi nuevo portátil Aspire 5 A515-55. ZFS. El servidor no arranca en este caso. Comprueba el progreso: cat /proc. Acostúmbrate a él – te encantará. eg. Instalado con éxito CentOS, Debian, y Win2K (utilizado KVM y 2.). Redundant Array of Inexpensive Disks (RAID) es una tecnología para combinar varios discos con el fin de mejorar su fiabilidad y/o rendimiento. Descargue el instalador del servidor alternativo. Proceda a través del instalador hasta llegar a Filesystem setup. 04 es. 04 LTS Software RAID se realiza a través del nivel del Sistema Operativo. Ver información RAID: mdad m-D /dev/md0 Información RAID . Instalando Ubuntu 20. Re: Instalando grub2 con /boot en software raid, Jordan Uggla, 2013/07/01. He probado a instalar en las dos unidades por separado y parece que funciona bien. Reinicie y disfrute de una instalación RAID 1 en pleno funcionamiento. (Eso significa unidades marcadas con DRIVE, como se comentó anteriormente. Pero al instalador estandar no parece gustarle jugar con ello, y puedo encontrar Software RAID en la pagina man de Architect Installer. 0 thumb drive on usb 3. Así que tal vez usted podría comenzar con una instalación normal de Ubuntu/Debian en el host, configurar software raid de la manera habitual y luego configurar el dispositivo como una máquina virtual. Siguiente paso lógico – crear particiones y formatear el disco duro utilizando las utilidades de línea de comandos de Linux. Una combinación de unidades hace un grupo de discos para formar un array RAID o un conjunto de RAID que puede ser un mínimo de 2 discos conectados a una controladora RAID y haciendo un volumen lógico o más, puede ser una combinación de más unidades en un grupo. El estado del RAID se informa a través del fichero /proc/mdstat. 1. RAID por software implementa los distintos niveles RAID en el código de dispositivo de bloque del kernel. [email protected]:

# pacma n-S grub2 En este blog, comprobaremos cómo instalar Arch Linux configurando RAID 1 por software. Volver a “CentOS 6 – Soporte de hardware” Cómo instalar el servidor MySQL en CentOS 8 Linux; Cómo identificar la velocidad de red entre dos máquinas. Para más información sobre RAID y qué modo RAID debería elegir, consulte Wikipedia. Está diseñado para permanecer operativo incluso si uno de los discos falla. none Una configuración RAID puede conseguirse mediante hardware dedicado o mediante software. Verifique los cambios. Instalar el gestor de arranque (GRUB) En Jessie (8. Reducir la última partición, si es necesario, con el fin de obtener el 1 MB de espacio libre al final En esta sección vamos a instalar un sistema operativo Linux completo desde cero, con RAID 0 y RAID 1 utilizado en las particiones en dos discos duros locales. amd/vmlinuz video=vesa:ywrap, mtrr vga=788 \ – tranquilo. En este artículo voy a compartir los pasos para configurar software raid 1 con y sin disco de repuesto i. Usted está restringido a los niveles RAID que su sistema operativo puede soportar. Instalar Ubuntu server con RAID 1 por software. Instalar Ubuntu en un array RAID 0. En este blog, vamos a ver cómo instalar Arch Linux … Instalar Grub en el disco duro principal (y guardar la configuración RAID) ¡Este es el último y definitivo paso antes de tener un sistema arrancable! A modo de resumen, el concepto básico es copiar los archivos del gestor de arranque grub en /boot/grub, montar un procfs y un árbol de dispositivos dentro de /mnt, luego chroot a /mnt para que estés efectivamente dentro de tu nuevo sistema. puede que no tengas suficiente espacio para instalar el software si el disco ya está particionado. Si tienes 2 discos duros configurados como un volumen único usando RAID 0, no podrás instalar Ubuntu 14. /dev/md2 1. Yo siempre uso /dev/md0 para la partición /boot. El ejemplo describe como crear un RAID 5

Somos una pequeña empresa que se dedica a la edición de vídeo, entre otras cosas, y necesitamos un lugar donde guardar copias de seguridad de archivos multimedia de gran tamaño y facilitar su compartición.

Tengo una caja configurada con Ubuntu Server y 4 discos de 500 GB. Actualmente están configurados con Samba como cuatro carpetas compartidas que las estaciones de trabajo Mac/Windows pueden ver sin problemas, pero quiero una solución mejor. Hay dos razones principales para esto:

500 GB no es realmente lo suficientemente grande (algunos proyectos son más grandes)

Es engorroso gestionar la configuración actual, porque los discos duros individuales tienen diferentes cantidades de espacio libre y datos duplicados (para copias de seguridad). Es confuso ahora y sólo empeorará cuando haya múltiples servidores. (“el proyecto está en sever2 en share4” etc)

  1. Por lo tanto, necesito una manera de combinar los discos duros de tal manera que se evite la pérdida completa de datos con el fallo de una sola unidad, y para que los usuarios vean sólo una única acción en cada servidor. He hecho RAID5 por software en linux y tuve una mala experiencia con él, pero lo intentaría de nuevo. LVM parece bien pero parece que nadie lo usa. ZFS parece interesante pero es relativamente “nuevo”.
  2. ¿Cuál es la forma más eficiente y menos arriesgada de combinar los discos duros que sea conveniente para mis usuarios?

Editar: El objetivo aquí es básicamente para crear servidores que contienen un número arbitrario de unidades de disco duro, pero limitar la complejidad desde la perspectiva del usuario final. (es decir, que ven una “carpeta” por servidor) Copia de seguridad de datos no es un problema aquí, pero cómo cada solución responde a un fallo de hardware es una preocupación seria. Por eso agrupo RAID, LVM, ZFS y quién sabe qué más.

Mi experiencia anterior con RAID5 fue también en una caja de Ubuntu Server y hubo una serie de circunstancias complicadas e improbables que llevaron a la pérdida completa de datos. Pude evitarlo de nuevo, pero me quedé con la sensación de que estaba añadiendo un punto de fallo adicional innecesario al sistema.

No he utilizado RAID 10, pero estamos en el hardware de los productos básicos y la mayor cantidad de unidades de datos por caja es más o menos fija en 6. Tenemos un montón de unidades de 500 GB y 1,5 TB es bastante pequeño. (Sigue siendo una opción para al menos un servidor, sin embargo)

No tengo experiencia con LVM y he leído informes contradictorios sobre cómo gestiona los fallos de las unidades. Si una configuración LVM (no rayada) pudiera gestionar el fallo de una única unidad y sólo perdiera los archivos que tuvieran una parte almacenada en esa unidad (y almacenara la mayoría de los archivos en una única unidad) podríamos incluso vivir con ello.

Pero ya que tengo que aprender algo totalmente nuevo, también puedo ir todo el camino a ZFS. A diferencia de LVM, sin embargo, también tendría que cambiar mi sistema operativo (?) por lo que aumenta la distancia entre donde estoy y donde quiero estar. Utilicé una versión de solaris en la uni y no me importaría mucho, sin embargo.

En el otro extremo del espectro de TI, creo que también puedo explorar FreeNAS y / o Openfiler, pero que en realidad no resuelve la cuestión de cómo combinar unidades.

Planeo configurar un servidor de archivos simple para mi red doméstica, y elegí usar Ubuntu Server debido a la experiencia pasada que he tenido con Ubuntu más toda la gran ayuda que he recibido de tantos otros usuarios en estos foros.

Mi objetivo principal es tener un lugar para almacenar toda mi música, software, vídeos y otros archivos de datos misc. Principalmente voy a acceder a estos archivos desde mis ordenadores Windows, y lo más probable es utilizar Putty para trabajar con el sistema linux a través de acceso remoto, así que planeo instalar el servidor de archivos Samba y el servidor OpenSSH.

Mi ordenador servidor tiene: – (1) 10 gigas de disco duro para el sistema operativo, y – (2) 750 gigas de disco duro conectado a un controlador RAID que estoy queriendo configurar en una matriz RAID1 para el almacenamiento.

Mi pregunta es: Cuando estoy particionando mis HD’s durante la instalación de linux usando la opción “Guided – use entire disk”, veo la distribución de las unidades particionadas y muestra las tres unidades listadas. ¿No debería mostrar sólo 2 unidades (el disco duro de 10 gigas y la matriz RAID de 750 gigas)? Si se supone que debe mostrar los 3, ¿cómo puedo configurarlo para que las 2 unidades de la matriz RAID se reflejen entre sí?

Agradecería cualquier ayuda.

Hay muchas formas de hacerlo, pero si estás pensando en usar el raid de la BIOS de tu placa base, eso es otro tema. Aquí hay algunos enlaces que te pondrán en marcha:

NOTA: Debes usar Ubuntu Server 18.04 LTS, no Ubuntu 18.04-live-server. La ISO del servidor en vivo no proporciona todas las utilidades para instalar RAID y LVM. (http://cdimage. ubuntu. com/releases/18.04/release/)

Estos pasos también funcionan para ubuntu Server 16.04 LTS.

Estos pasos describen cómo configurar un RAID 5 por software en el momento de la instalación utilizando el instalador ncurses de Ubuntu Server. Los tamaños de las unidades aquí reflejan mi te

** Siendo un novato con WP, puede que haya metido la pata intentando formatear la página. La mayoría de estas notas deben ser utilizados como referencia, no como instrucciones exactas de todos modos. ** Paso 1 En Virtualbox:

Paso 2 Crear las particiones del disco físico

En la pantalla “Particionar discos”:

En este punto, configuraremos el primer disco (sda):

La primera partición será la partición de arranque GPT:

La segunda partición será la partición “/”:

La tercera partición será la partición “/data”:

La partición de intercambio:

Ahora repite todos estos elementos de configuración de nuevo para cada disco restante: sdb, sdc, sdd, sde

Paso 3 Configurar el software RAID 5

**Importante** Cuando cree los dispositivos RAID, ¡NO cree un dispositivo RAID para las particiones de arranque GPT!

Estoy configurando raid para lo siguiente: “/”, “/data”, y “swap” – por lo que 3 matrices raid independientes.

Ahora repita los pasos de nuevo para las matrices raid restantes (es decir, “/data”, y “swap”)

Paso 4 Habilite las matrices RAID 5

Realice estos pasos para los dos dispositivos raid restantes (asegurándose de elegir los puntos de montaje/sistemas de archivos correctos).

Paso 5 Continúe con la instalación del sistema operativo.

Paso 6 Echemos un vistazo a lo que tenemos hasta ahora, asegurándonos de que las matrices están sanas y se han inicializado.

Paso 7 ¿Desde qué partición arrancamos?

Compare el UUID de fstab con un UUID en la salida de blkid. Luego compare el PARTUUID con la salida de efibootmg r-v.

Paso 8 La información de arranque se encuentra actualmente sólo en un disco (ver Paso 7). Necesitamos copiar esta información a todos los discos para poder sobrevivir a un fallo de una sola unidad. Los siguientes comandos pueden destruir todo lo hecho hasta ahora. Asegúrate de hacerlo bien. Snapshoting si se ejecuta una VM es una buena idea.

Paso 9 Ahora añadiremos todas las particiones de arranque al efibootmgr. Este comando le mostrará lo que tiene actualmente en la configuración.

Queremos configurar entradas como “Boot0007* ubuntu”.

Paso 10 Si desea probar la configuración del menú de arranque, haga lo siguiente para cada unidad:

Después de reiniciar, ejecute efibootmgr para verificar (arrancó así que debe estar bien).

El script installimage proporcionado por Hetzner es un método fácil y rápido de instalar varias distribuciones de Linux.

Puedes ejecutar installimage directamente desde el sistema de rescate de tu servidor. Sus interfaces de menú facilitan la selección de la distribución de Linux que desee. Tienes control total sobre cómo particionar tu(s) unidad(es). Y puedes utilizar un sencillo editor para definir cómo quieres utilizar RAID y LVM por software.

Para utilizar installimage, primero tienes que activar el Sistema de Rescate y luego arrancar en él el Sistema de Rescate.

Utilice la contraseña que aparece en Robot para iniciar sesión en el Sistema de Rescate como “root”. A continuación, escriba installimage para iniciar el script installimage:

En el siguiente menú, debería ver:

Después de elegir una imagen, recibirá una nota de que se iniciará el editor, que abrirá el archivo de configuración.

Ofrecemos una serie de imágenes estándar que puede utilizar. Éstas suelen ser la última versión de la distribución concreta.

Los usuarios avanzados también pueden instalar versiones anteriores de estas distribuciones, yendo a la carpeta old\_images. Nota importante: No ofrecemos soporte para estas imágenes antiguas.

Además, los usuarios avanzados también pueden crear sus propias imágenes de SO e instalarlas. Por favor, consulte la guía sobre cómo instalar sus propias imágenes del SO para obtener información sobre cómo hacerlo y una lista de los requisitos.

Si installimage encuentra un archivo /autosetup en el sistema de rescate, lo utilizará automáticamente como archivo de configuración. A menos que haya errores en los archivos, no verá ningún menú ni editor.

Puede ajustar las siguientes variables para personalizar la instalación.

Las unidades presentes en el servidor se identifican en la primera fila con la variable DRIVE. Encima de cada línea, puede ver el tipo de unidad.

Aquí puede seleccionar en qué unidades desea que se instale el SO. Las unidades se borrarán por completo y se perderán todos los datos que contengan.

Si desea dejar una unidad en su estado actual y no realizar ningún cambio en ella, puede dejarla fuera (eliminarla) colocando un # delante de ella. Nota importante: Hacer esto significa que necesita ajustar adecuadamente el número después de la siguiente variable DRIVE.

Si el servidor tiene múltiples unidades, puede utilizar las variables SWRAID y SWRAIDLEVEL para crear diferentes niveles RAID por software. Cualquier nivel RAID por software se aplica siempre a todas las unidades. (Es decir, las unidades marcadas con DRIVE, como se ha comentado anteriormente). Si no quieres RAID por software en una unidad en particular, tendrás que eliminarla en consecuencia.

El script puede crear RAID por software con niveles 0, 1, 5, 6 o 10.

El gestor de arranque Grub está preconfigurado. (En el pasado también ofrecíamos Lilo). Dependiendo del sistema operativo, se instala GRUB2 o GRUB1 (Grub heredado).

La variable HOSTNAME establece el nombre de host correspondiente en el sistema.

Particiones / sistemas de archivos

La installimage también soporta ajustes en el esquema de particionado (incluyendo el uso de LVM). Puede encontrar la sintaxis designada en los ejemplos del editor.

Imagen del sistema operativo

Esta es la ruta completa a la imagen del sistema operativo; sólo necesita especificarla si está instalando una imagen personalizada.

Tras salir del editor con F10 (guardar y salir), se comprueba la sintaxis del fichero de configuración. Si contiene errores, volverá al editor.

Si ves esta salida después de 1-5 minutos (dependiendo de la imagen y el particionado que estés usando), el sistema está listo y arrancable.

La contraseña de root se establece con la contraseña actual del sistema de rescate.

Tras un reinicio en el Sistema de Rescate,

se arranca el sistema recién instalado y puede iniciar sesión con la contraseña anterior del sistema de rescate.

Al instalar Debian o Ubuntu utilizando el script installimage, los tiempos para el cronjob en /etc/cron. d/mdadm se establecen aleatoriamente.

Preguntas más frecuentes

¿Por qué no puedo crear particiones de más de 2 TiB?

Sólo puede crear particiones de más de 2 TiB con una tabla de particiones GUID (GPT). Por lo tanto, sólo puede instalar sistemas operativos que incluyan GRUB2; éste soporta el arranque desde unidades GPT.

El script de instalación muestra uno o más errores. ¿Qué debo hacer?

Vuelva a ejecutar la instalación. Si vuelve a obtener el mismo error, envíe la salida de pantalla completa y el contenido del archivo /root/debug. txt a [email protected].

¿Tengo que poner “all” al final de la tabla de particiones o puedo poner esta línea más arriba?

El tamaño all en el archivo de configuración significa usar el resto del espacio disponible en la unidad . Como las particiones se crean una tras otra, la tabla de particiones terminará después de usar all porque habrá

Los scripts fueron escritos por desarrolladores de Hetzner Online GmbH, que los mantienen y amplían. Los scripts están escritos en bash y están disponibles en el sistema de rescate. Puede modificarlos y utilizarlos libremente. Hetzner Online GmbH no asume ninguna responsabilidad por cualquier daño causado por la modificación de los scripts y excluye cualquier soporte para guías que incluyan cambios en el script.

Cuál es la contraseña de MySQL Root cuando se ha instalado LAMP?

Jul 25, 2019 – 7 min read

Instalar una réplica de Ubuntu 18.04 linux en AC922 es muy simple. Aquí se explica cómo hacerlo.

Procesador POWER es una arquitectura diferente a x86, a saber ppc64el . Esta es la razón por la que las rocas. Por lo tanto, usted necesita para obtener una versión de Ubuntu compilado para esta arquitectura, al igual que lo haría si estuviera instalando en Rasberry Pi que se ejecuta el procesador ARM arm64 . ¡Tenga en cuenta que el paralelismo entre IBM Power y ARM termina aquí!

Utilice su motor de búsqueda favorito con las palabras clave ” ubuntu 18.04.2 ppc64el” y obtendrá el enlace adecuado : PowerPC64 Little-Endian server install image. Descárguela y grábela en una llave USB. Para ejecutar mi escritorio en linux, utilizo gnome-disks.

La instalación en red es compatible, por supuesto, pero la configuración de un servidor http para ese objetivo no entra en el ámbito de este artículo.

Ahora necesitas acceder al servidor, para conectar la llave usb en el puerto USB frontal o trasero, detrás del bisel frontal sujeto con clips a la fachada.

Mientras estás allí, y si disfrutas de la temperatura regulada de la sala de servidores durante los calurosos días de verano, puedes enchufar una pantalla VGA y un teclado USB en los puertos traseros del servidor.

Si tu placa no abre la puerta del centro de datos, utiliza el protocolo IPMI para conseguir una conexión serie sobre LAN con el terminal virtual del servidor:

Si el servidor no está encendido, no verá nada. Enciéndalo. Pulse el botón parpadeante situado en la parte superior derecha de la parte frontal del chasis, o utilice de nuevo IPMI:

Petitboot es un cargador de arranque y más para OpenBMC Firmware. Arrancará una interfaz linux y ASCII que le ayudará a gestionar el servidor antes de arrancar su SO linux. Escaneando los dispositivos, petitboot descubrirá la llave USB de arranque:

Mueve el * a Instalar Ubuntu Server y pulsa Enter, se iniciará el menú de instalación. Configure su idioma, configuración regional, teclado, dirección IP como de costumbre para Ubuntu.

Los discos deben ser particionados manualmente para crear la distribución que necesitamos. Elija Manual en el menú principal:

Si sus discos no están limpios de una partición anterior, es el momento de eliminar cualquier partición. El instalador no es tan bueno para esa tarea, especialmente si inhenerit de discos con LVM. La forma más fácil que he encontrado para hacerlo es iniciar una instalación en todo el disco: Guided – use entire disk , e interrumpirla después de que haya completado la etapa de particionado del disco. Este proceso elimina el LVM. Luego, después de reiniciar, puede eliminar el dispositivo RAID md software con el instalador de Ubuntu. A continuación, puede eliminar las particiones existentes. En cualquier caso… Digamos que tus discos están limpios:

Históricamente, los sistemas Power que ejecutan linux necesitan una pequeña partición de 8 MB con un formato específico. Se llama partición de arranque PReP, y aloja el binario stage1 del proceso de arranque de linux. Esta página te dará más detalles al respecto. La buena noticia es que petitboot cumple esa tarea, por lo que la partición de arranque PReP es inútil con servidores basados en OpenPOWER / OpenBMC. Con servidores que no utilicen petitboot (servidores basados en PowerVM), puede que te encuentres con esta partición.

Voy a hacerlo simple, esta disposición es suficiente para mi propósito : sobrevivir a un fallo de disco. Voy a crear un Sofware RAID1, un LVM en la parte superior de la misma, con /boot y / volúmenes lógicos. Sin espacio de intercambio, porque si me quedo sin memoria con los 512 GB de RAM que tengo en un servidor no virtualizado, la causa será tal que un archivo de intercambio no ayudará.

Este capítulo describe las características de RAID, con especial atención al uso de RAID por software para redundancia de almacenamiento.

3.1В Acerca de RAID por software

La función Redundant Array of Independent Disks (RAID) ofrece la posibilidad de distribuir los datos entre varias unidades para aumentar la capacidad, implementar la redundancia de datos y aumentar el rendimiento. RAID se implementa en hardware a través del almacenamiento inteligente en disco que exporta los volúmenes RAID como LUNs, o en software por el sistema operativo. El kernel de Oracle Linux utiliza el controlador multidisk (MD) para soportar RAID por software y crear dispositivos virtuales a partir de dos o más dispositivos de almacenamiento físico. MD permite organizar las unidades de disco en dispositivos RAID e implementar diferentes niveles RAID.

Los siguientes niveles RAID por software se implementan habitualmente con Oracle Linux:

Combina las unidades como una unidad virtual más grande. Este nivel no proporciona redundancia de datos ni ventajas de rendimiento. La resistencia disminuye porque el fallo de una sola unidad inutiliza la matriz.

Aumenta el rendimiento pero no proporciona redundancia de datos. Los datos se dividen en unidades (bandas) y se escriben en todas las unidades de la matriz. La resistencia disminuye porque el fallo de una sola unidad inutiliza la matriz.

RAID-5 (striping con paridad distribuida)

Aumenta el rendimiento de lectura mediante el uso de striping y proporciona redundancia de datos. La paridad se distribuye entre todas las unidades de una matriz, pero no ocupa tanto espacio como un espejo completo. El rendimiento de escritura se reduce en cierta medida como consecuencia de la necesidad de calcular la información de paridad y escribir la información además de los datos. Si uno de los discos de la matriz falla, la información de paridad se utiliza para reconstruir los datos y satisfacer las peticiones de E/S. En este modo, el rendimiento de lectura y la resistencia se degradan hasta que se sustituye el disco averiado y se repobla el nuevo disco con datos e información de paridad. RAID-5 tiene un gasto intermedio entre RAID-0 y RAID-1.

RAID-6 (Striping con doble paridad distribuida)

Una variante más resistente de RAID-5 que puede recuperarse de la pérdida de dos unidades de una matriz. RAID-6 se utiliza cuando la redundancia de datos y la resistencia son importantes, pero el rendimiento no lo es. RAID-6 es intermedio en gasto entre RAID-5 y RAID-1.

Proporciona redundancia de datos y resistencia al escribir datos idénticos en cada unidad de la matriz. Si falla una unidad, una réplica puede satisfacer las peticiones de E/S. La duplicación es una solución cara porque se escribe la misma información en todos los discos de la matriz.

RAID 0+1 (duplicación de discos rayados)

Combina RAID 0 y RAID 1 mediante la duplicación de una matriz en franjas para proporcionar un mayor rendimiento y redundancia de datos. Fallo de un solo disco

Combina RAID-0 y RAID-1 mediante la división en franjas de una matriz en espejo para proporcionar un mayor rendimiento y redundancia de datos. El fallo de un solo disco provoca que parte de un espejo quede inutilizable hasta que se sustituya el disco y se repoble con datos. La capacidad de recuperación se degrada mientras un solo espejo conserve una copia completa de los datos. RAID 1+0 suele ser tan caro o ligeramente más caro que RAID-1.

3.2В Creación de dispositivos RAID por software

Ejecute el comando mdadm para crear el dispositivo RAID MD como se indica a continuación:

Nombre del dispositivo RAID, por ejemplo, /dev/md0 .

Número de nivel del RAID a crear, por ejemplo, 5 para una configuración RAID-5.

Número de dispositivos que formarán parte de la configuración RAID.

Dispositivos a configurar como RAID, por ejemplo, /dev/sd[bcd] para 3 dispositivos para la configuración RAID.

Los dispositivos listados deben sumar el número especificado par a-raid-devices .

Este ejemplo crea un dispositivo RAID-5 /dev/md1 a partir de /dev/sdb , /dev/sdc , y dev/sdd :

El ejemplo anterior crea un dispositivo RAID-5 /dev/md1 a partir de 4 dispositivos. Un dispositivo se configura como repuesto para expansión, reconfiguración o reemplazo de unidades fallidas:

(Opcional) Añade la configuración RAID a /etc/mdadm. conf :

Basándose en el fichero de configuración, mdadm ensambla las matrices en el momento del arranque.

Por ejemplo, las siguientes entradas definen los dispositivos y matrices que corresponden a /dev/md0 y /dev/md1 :

Para ver más ejemplos, consulte el archivo de configuración de ejemplo /usr/share/doc/mdadm-3.2.1/mdadm. conf-example .

Un dispositivo RAID MD se utiliza de la misma forma que cualquier dispositivo de almacenamiento físico. Por ejemplo, el dispositivo RAID puede configurarse como un volumen físico LVM, un sistema de ficheros, una partición swap, un disco de Gestión Automática de Almacenamiento (ASM) o un dispositivo raw.

Para comprobar el estado de los dispositivos RAID MD, consulte /proc/mdstat :

Para mostrar un resumen o información detallada sobre los dispositivos RAID MD, utilice la opció n-query o-detail, respectivamente, con mdadm .

Para más información, consulte las páginas de manual de md(4) , mdadm(8) y mdadm. conf(5).

A continuación se muestra un ejemplo de migración de un sistema Ubuntu en ejecución a un RAID1 por software. En el proceso, necesitará realizar dos reinicios.

El primer paso es cambiar al usuario root si aún no lo es:

Veamos una lista de discos y particiones:

Supongamos que el sistema utiliza un disco, por ejemplo /dev/sda y tiene una partición principal, /dev/sda1. Para la prueba, he instalado un Ubuntu Server 18.04 limpio, el disco estaba particionado por defecto, swap era el archivo en la misma partición.

Para crear un raid, conectamos otro disco del mismo tamaño, se llamará /dev/sdb.

Instalar mdadm y las utilidades necesarias (suelen venir instaladas por defecto):

Para asegurarnos de que todos los módulos y componentes necesarios están instalados, ejecutamos el siguiente comando:

Si los módulos necesarios no están cargados, cárguelos:

Dividamos el nuevo disco /dev/sdb de la misma forma que:

En el siguiente paso, cambie el tipo de partición del nuevo disco duro /dev/sdb a “Linux raid autodetect” (ya que la partición 1, a continuación, después de “t” no se le pedirá que especifique el número de partición):

Asegúrese de que el tipo de partición /dev/sdb es Linux raid autodetect:

Cree un array md0 usando lo que falta:

Si algo no funciona, puedes quitar el raid e intentarlo de nuevo:

Especifiquemos el sistema de ficheros del array:

Hagamos una copia de seguridad del fichero de configuración mdadm y añadamos información sobre el nuevo array:

Montemos /dev/md0 en el sistema:

A mi me aparecía al final de la lista:

En el fichero /etc/fstab comentamos las líneas sobre /dev/sda y añadimos sobre el array:

Veamos el fichero /etc/mtab si hay algún registro sobre el raid:

Veamos los nombres exactos de los ficheros /vmlinuz, /initrd. img:

Cree un archivo desde el menú de arranque de GRUB2 y ábralo en el editor:

Añade el contenido (en lugar de /vmlinuz y /initrd. img, especificaremos los nombres correctos si son diferentes):

Abra el archivo /etc/default/grub en el editor de texto:

Descomenta un par de líneas:

Actualiza el cargador:

Instala el cargador de arranque en ambos discos:

Copia todos los datos al array md0 previamente montado:

Reinicia el sistema:

Cuando el sistema arranque, en el menú de arranque será el primer menú /etc/grub. d/09_raid1_test, si hay problemas con la descarga, puedes elegir arrancar desde /dev/sda.

Asegúrese de que el sistema se inicia con /dev/md0:

De nuevo, cambia al usuario root si no estás bajo él:

Cambia el tipo de partición del disco duro antiguo:

Añada al array el disco antiguo:

Espera a que se complete la sincronización y asegúrate de que el raid está en orden – UU:

Actualizar la información del array en el fichero de configuración mdadm:

Eliminar nuestro menú GRUB temporal, ya no es necesario:

Actualizar e instalar GRUB de nuevo:

Reinicie el sistema para asegurarse de que se ejecuta correctamente:

Con esto, la migración del sistema Ubuntu en ejecución al RAID1 por software se ha completado. Si uno de los discos, /dev/sda o /dev/sdb deja de funcionar, el sistema se ejecutará y arrancará. Para mayor estabilidad, puedes añadir más discos del mismo tamaño al array.

Сводка: Nuestra misión es ofrecer soluciones que simplifiquen la TI proporcionando soluciones de bases de datos, desarrollo personalizado, centros de datos dinámicos, informática flexible Свернуть Nuestra misión es ofrecer soluciones que simplifiquen la TI proporcionando soluciones de bases de datos, desarrollo personalizado, centros de datos dinámicos, informática flexible.

Содержание статьи

Свойства статьи

Оцените эту статью

Симптомы

Se aplica a: Sistema(s) operativo(s) – Oracle Linux 6.x, RHEL 6.x

Plataforma(s) de servidor – PowerEdge R720, R820

Autor: Naveen Iyengar

Problema: Cómo configurar RAID por software en unidades SSD Dell Express Flash PCIe

  • Solución: 1. Identifique los dispositivos de bloque Express Flash: las unidades Dell Micron Express Flash aparecen como los siguientes dispositivos de bloque en el sistema operativo EL6.x
  • Mayor menor #bloques nombre 251 256 341873784 rssda 251 512 341873784 rssdb
  • 2. Crear una partición – Utilice la utilidad fdisk linux de la siguiente manera para crear una partición de tipo ‘fd’ en las unidades Flash

fdis k-u /dev/rssda

Comando (m para ayuda): n Acción del comando e extendida p partición primaria (1-4) p

Número de partición (1-4): 1 Primer sector (56-683747567, por defecto 56: 128 Último sector, +sectores o +tamaño…, por defecto 683747567:

Comando (m para ayuda): t Partición 1 seleccionada Código hexadecimal (teclee L para listar códigos): fd Cambiado el tipo de sistema de la partición 1 a fd (autodetección raid Linux).

3. Repita el paso 2 para todos los demás dispositivos de bloque SSD PCIe que se incluirán en el RAID de software

4. Crear RAID por software – Utilice la herramienta de utilidad de Linux llamada mdadm como se indica a continuación para crear la matriz RAID por software en las unidades Express Flash. El siguiente ejemplo crea un RAID 1 utilizando dos unidades Flash /dev/rssda1 y /dev/rssdb1.

mdad m-create /dev/md 0-level=mirro r-raid-devices=2 /dev/rssd[ab]1

5. Ver los detalles del array: Ver el estado del array multidisco md0.

$> mdad m-detalle /dev/md0

6. Hacer el array persistente a través de reinicios: Para añadir md0 al archivo de configuración para que sea reconocido la próxima vez que se inicie, haga lo siguiente:

mdad m-Es | grep “md/0”

/etc/mdadm. conf

Command (m for help): wq The partition table has been altered! $>

7. Compruebe si se ha completado la resincronización: Ejecute la opció n-detail para asegurarse de que las dos unidades SSD de la matriz no están en el estado de resincronización, o espere a que termine la resincronización antes de ejecutar una prueba con ellas.

mdad m-detail /dev/md0

$> A. Eliminación del array:

dgingeri

$>Tengo un servidor en el trabajo que no funciona bien. El controlador raid, un LSI 9261-8i, está dejando caer con frecuencia todas las unidades lógicas fuera de línea. (En realidad, esto ha estado sucediendo cada vez que se puso en su lugar, y que acababa de reiniciar la cosa, pero sólo recientemente mi jefe quiere resolverlo). Buscando información, es un problema frecuente con el controlador LSI y algunos de los controladores raid y combinaciones de placa base causan este problema, y Avago / Broadcom no va a trabajar en una solución a nivel de controlador para esto, ya que es un controlador más antiguo. Así que mi jefe quiere cambiar el controlador raid por otro diferente. Vamos a comprar un controlador Broadcom 9361-8i para sustituirlo, junto con BBU y cables.

El problema es que el nuevo controlador utiliza controladores diferentes, y no tengo ni idea de cómo cambiar los controladores de almacenamiento de arranque en Linux. Mi jefe lo sabe, pero no está dispuesto a decírmelo, diciendo que tengo que buscarlo para aprenderlo. (No puedo encontrar nada sobre esto a través de múltiples búsquedas en Google.

$> mdadm – Es | grep md0 Check if the above command displays the details of the md0 array created. If not, try $>¿Cómo puedo hacerlo? ¿Alguien aquí sabe?

Depending on which of the above two command works, run the appropriate command below to add info to the mdadm. conf file $> mdadm – Es | grep md0 >> /etc/mdadm. conf Or $> mdadm – Es | grep “md/0” >>BulletDust

Supremo [H]ardor

$>Tengo un servidor en el trabajo que no funciona bien. El controlador raid, un LSI 9261-8i, está dejando caer con frecuencia todas las unidades lógicas fuera de línea. (En realidad, esto ha estado sucediendo cada vez que se puso en su lugar, y que acababa de reiniciar la cosa, pero sólo recientemente mi jefe quiere resolverlo). Buscando información, es un problema frecuente con el controlador LSI y algunos de los controladores raid y combinaciones de placa base causan este problema, y Avago / Broadcom no va a trabajar en una solución a nivel de controlador para esto, ya que es un controlador más antiguo. Así que mi jefe quiere cambiar el controlador raid por otro diferente. Vamos a comprar un controlador Broadcom 9361-8i para sustituirlo, junto con BBU y cables.

Una cosa es aprender y otra enseñar, pero obligar a alguien a aprender cuando se trata de datos valiosos está destinado a terminar en lágrimas.

Odio las tarjetas raid pseudo hardware en Linux por esta razón, prefiriendo usar mdadm en el caso de los derivados de Ubuntu (Debian) por el simple hecho de que el raid software es mucho más sencillo cuando los fallos de hardware son un problema. Debido a este hecho es difícil para mí ofrecer consejos, aunque a veces puedes tener suerte e instalar la tarjeta raid de hardware (software), instalar los controladores, conectar las unidades en el mismo orden y todo simplemente funciona – Aunque de ninguna manera ofrecería esto como consejo cuando se trata de datos valiosos, tu jefe es un idiota y no debería ponerte en esta posición.

[H]ard|Gawd

Consideracion #1 inmediatamente copia de seguridad Consideracion #2 muy raramente el hardware RAID (especialmente pseudoRAID) usa una distribucion de disco compatible.

Conozco administradores de servidores que compran un par de tarjetas RAID, incluso de controladores de hardware convencionales para mitigar su pésima compatibilidad. A menos que necesites el rendimiento, el RAID por software es más viable y es compatible con todas las configuraciones.

dgingeri

Consideración nº 1: se trata de almacenamiento para grandes proyectos de nuestro grupo de postproducción. Se instaló específicamente con la condición de que no se hicieran copias de seguridad. (No es mi elección.) En realidad se utiliza muy poco, y con frecuencia se ha encontrado que se bloquea después de meses de tiempo de inactividad. Consideracion #2 – He trabajado con estos controladores muy frecuentemente, y se con certeza que es facil migrar grupos de uno a otro. Los conjuntos de discos pueden pasar de la 9261 a la 9361 sin problemas, y hacia atrás sólo es un problema si usaron RAID 6 en la controladora más nueva. Esto funciona muy bien en Windows, incluso cuando la unidad de arranque está en la controladora RAID. Acabo de instalar los controladores más recientes antes de que el cambio, y tan pronto como se inicia, se vuelve a reconocer los dispositivos, reinicia, y todo está al 100%. Las versiones Dell de cada uno funcionan así de bien, también. Es fácil importar un conjunto de discos desde un Dell H730 a un Broadcom 9361 o un LSI 9261, siempre que sean SATA. SAS complica un poco las cosas, pero no mucho. Por supuesto, no es posible utilizar unidades SAS de 12 Gb en un Dell H710 o un LSI 9261, pero ésa es la única complicación.

Ah, y no fue mi elección cómo se construyeron estas máquinas, ya que se construyeron antes de que yo empezara en esta empresa. Así que el RAID por software no era una opción para mí. Además, con el rendimiento necesario para esto, la edición de grandes archivos de vídeo a través de un recurso compartido SMB de Linux, RAID por software no funcionaría. Simplemente no funciona lo suficientemente bien. Lo sé por experiencia propia.

BulletDust

Supremo [H]ardor

Eso no se sostiene.

Si tienes que instalar drivers para usar la tarjeta raid, estás usando una variante de raid por software. Con el nivel de rendimiento de la CPU que ha habido en los últimos diez años más o menos, rara vez he visto una situación en la que el raid por software a través de mdadm no funcionara adecuadamente. Si las tarjetas (originales o de repuesto) son compatibles, basta con conectarlas, conectar las unidades, instalar los controladores y listo.

Tu jefe sigue siendo un capullo que utiliza métodos de enseñanza ridículos.

Odio las tarjetas raid pseudo hardware en Linux por esta razón, prefiriendo usar mdadm en el caso de los derivados de Ubuntu (Debian) por el simple hecho de que el raid software es mucho más sencillo cuando los fallos de hardware son un problema. Debido a este hecho es difícil para mí ofrecer consejos, aunque a veces puedes tener suerte e instalar la tarjeta raid de hardware (software), instalar los controladores, conectar las unidades en el mismo orden y todo simplemente funciona – Aunque de ninguna manera ofrecería esto como consejo cuando se trata de datos valiosos, tu jefe es un idiota y no debería ponerte en esta posición.

[H]ard|Gawd

La consideración #1 necesita ser revisada si es posible. No tiene por qué ser en una capacidad de recuperación de desastres súper. Sin embargo, si es concebible para empujar una copia de los contenidos (al menos los datos de trabajo) a una unidad externa o sistema, mientras que aprender lo que sea (o decidir que yolo), que va a tomar una gran parte de la presión.

dgingeri

Consideración nº 1: se trata de almacenamiento para grandes proyectos de nuestro grupo de postproducción. Se instaló específicamente con la condición de que no se hicieran copias de seguridad. (No es mi elección.) En realidad se utiliza muy poco, y con frecuencia se ha encontrado que se bloquea después de meses de tiempo de inactividad. Consideracion #2 – He trabajado con estos controladores muy frecuentemente, y se con certeza que es facil migrar grupos de uno a otro. Los conjuntos de discos pueden pasar de la 9261 a la 9361 sin problemas, y hacia atrás sólo es un problema si usaron RAID 6 en la controladora más nueva. Esto funciona muy bien en Windows, incluso cuando la unidad de arranque está en la controladora RAID. Acabo de instalar los controladores más recientes antes de que el cambio, y tan pronto como se inicia, se vuelve a reconocer los dispositivos, reinicia, y todo está al 100%. Las versiones Dell de cada uno funcionan así de bien, también. Es fácil importar un conjunto de discos desde un Dell H730 a un Broadcom 9361 o un LSI 9261, siempre que sean SATA. SAS complica un poco las cosas, pero no mucho. Por supuesto, no es posible utilizar unidades SAS de 12 Gb en un Dell H710 o un LSI 9261, pero ésa es la única complicación.

Personalmente, creo que tu bloqueador estará antes en el hardware RAID y en el nivel de metadatos. A menos que el jefe comparta el apretón de manos secreto, el camino más corto será probablemente hacer una copia de seguridad de los datos y empezar con una nueva instalación. También podrías ofrecer una versión más reciente (¿16.04?) como valor añadido. Sólo mi $0.02

Edito: apuesto otros 0,02 dólares a que los chicos del foro de SSD y almacenamiento de datos tienen más experiencia de primera mano.

Tabla de Contenidos

En este artículo voy a compartir los pasos para configurar el software raid 1 con y sin disco de repuesto es decir, la duplicación raid donde se almacenan los datos. Explicaré esto con más detalle en los próximos capítulos. He escrito otro artículo con la comparación y la diferencia entre varios tipos de RAID usando cifras incluyendo los pros y los contras de cada tipo de RAID para que puedas tomar una decisión informada antes de elegir un tipo de RAID para tu sistema.

Eso no se sostiene.

RAID-1 es usualmente referido como “mirroring”. Cada objeto hijo de una región RAID-1 contiene una copia idéntica de los datos de la región. Al escribir en una región RAID-1, los datos se escriben simultáneamente en todos los objetos secundarios. Una lectura de una región RAID-1 puede tener como resultado la lectura de los datos de cualquiera de los objetos hijos. Los objetos hijos de una región RAID-1 no tienen por qué tener el mismo tamaño, pero el tamaño de la región será igual al tamaño del objeto hijo más pequeño.

Crear un RAID 1 por software sin disco de repuesto

La configuración RAID-1 más simple debe contener al menos dos discos miembros. En este ejemplo, /dev/sdb1 y /dev/sdc1 son discos miembros del RAID-1 en /dev/md0 :

Hay ciertos pasos que debes seguir antes de crear un RAID 1 por software en tu nodo Linux. Dado que ya he realizado esos pasos en mi artículo anterior, voy a compartir los hipervínculos aquí

Reglas importantes del particionado

Particionado con fdisk

Ahora tenemos nuestras particiones disponibles con nosotros que podemos validar usando lsblk

Configurar software raid 1

Ahora que tenemos todas las particiones con nosotros, vamos a crear una matriz RAID 1 por software en esas particiones.

Verificar los cambios

Ahora que nuestro software raid 1 se ha creado con éxito. Verificar los cambios usando el siguiente comando

Ahora /proc/mdstat reporta información acerca del arreglo y también incluye información acerca del proceso de resincronización. La resincronización tiene lugar cada vez que se inicializa por primera vez un nuevo array que soporta redundancia de datos. El proceso de resincronización asegura que todos los discos de una réplica contienen exactamente los mismos datos.

La resincronización se realiza en un 40 por ciento y debería completarse en algún tiempo basándose en el tamaño de su software raid 1 array.

Crear el sistema de ficheros

Ahora que nuestro software raid 1 está listo, vamos a crear un sistema de ficheros sobre él para que pueda ser utilizado para almacenar datos. En este artículo crearé un sistema de archivos ext4, pero puedes crear cualquier otro sistema de archivos en tu software raid 1 según tus necesidades.

Para comprobar los detalles del software raid 1 puedes utilizar el siguiente comando

Crear punto de montaje

A continuación, necesitamos un punto de montaje para acceder al sistema de archivos de la matriz de software raid 1.

Ahora que tenemos nuestro punto de montaje y hemos montado nuestro software raid 1 array en nuestro punto de montaje. Comprobemos los detalles de nuestro software raid 1 array.

Así que ahora este software raid 1 array se puede utilizar para almacenar sus datos. Pero como hemos montado temporalmente este sistema de ficheros, no estará disponible después de reiniciar.

Para hacer los cambios persistentes al reiniciar, añada el siguiente contenido en su /etc/fstab

A continuación, guarde el archivo y reinicie el nodo. Una vez que el nodo esté ARRIBA asegúrese de que su arreglo RAID 1 por software esté montado en su punto de montaje, por ejemplo

Configurar Software RAID 1 con Disco de Repuesto

Cuando un disco falla, es útil ser capaz de promover automáticamente otro disco en el array para reemplazar el disco que ha fallado, por lo que es bueno añadir un disco de repuesto al configurar un software raid 1. El parámetro de disco de repuesto se combina con el parámetro de disco de repuesto.

El parámetro de disco de repuesto se combina con el parámetro de dispositivo para definir los discos que se insertarán en el array cuando falle un disco miembro. En este artículo he añadido un nuevo disco virtual para demostrar la creación de un software raid 1 con disco de repuesto.

Si está utilizando mdadm , la bander a-x define el número de discos de repuesto. Los discos miembros se analizan de izquierda a derecha en la línea de comandos. Así, los dos primeros discos listados en este ejemplo ( /dev/sdb1 y /dev/sdc1 ) se convierten en los miembros activos del RAID, y el último disco ( /dev/sdd1 ) se convierte en el disco de repuesto.

Si un disco de esta matriz fallara, el núcleo eliminaría la unidad que ha fallado (ya sea /dev/sdb1 o /dev/sdc1 ) de /dev/md0 , insertaría /dev/sdd1 en la matriz e iniciaría la reconstrucción. En este caso /dev/sdb1 ha fallado (forzosamente), como indica (F) en el siguiente listado.

El controlador md ha insertado automáticamente el disco de repuesto /dev/sdd1 y ha comenzado la recuperación.

Para comprobar el detalle del software raid 1 array /dev/md0

Por último espero que los pasos del artículo para configurar software raid 1 array con y sin disco de repuesto en Linux hayan sido de ayuda. Entonces, déjame saber tus sugerencias y retroalimentación usando la sección de comentarios.

Entradas Relacionadas

¿Todavía no has encontrado lo que buscabas? Realiza una búsqueda rápida en GoLinuxCloud

Si mis artículos sobre GoLinuxCloud te han ayudado, por favor considera invitarme a un café como muestra de agradecimiento.

Para cualquier otra opinión o pregunta puedes utilizar la sección de comentarios o el formulario de contacto.

¡Gracias por tu apoyo!

2 thoughts on “Tutorial paso a paso: Configurar Software RAID 1 en Linux”

Hola. Gracias por este tuto. Estoy alojado con OVH en una plantilla Proxmox en 2 x 480Gb SSD en RAID1 (md1 y md5). Este servidor tiene 2 x 2Tb HDD (sdc y sdd) que he puesto en RAID1 (md6). Puedo montarlo y acceder a la unidad. Mi servidor puede reiniciar bien, pero tan pronto como añado el montaje en FSTAB, ya no arranca. No tengo un KVM, así que necesito reformatear todo y reinstalar mi ProxMox. ¿Qué puedo hacer para que funcione con un reinicio?

Hola, ¿qué estás usando para montar la partición adicional en /etc/fstab? ¿Puedes compartir esa línea? No es necesario volver a formatear, en estos casos se debe obtener una solicitud de mantenimiento en el que debe ser capaz de modificar el fstab o puede iniciar sesión en modo de emergencia utilizando Live DVD. Pero vamos a tratar de solucionar este problema en primer lugar. Espero que /dev/md6 sea accesible durante el arranque.

Inicio

Foros

Proxmox Entorno Virtual

Proxmox VE: Instalación y configuración

EinsGehtNoch

Miembro nuevo

He montado un servidor casero. Principalmente para re

He instalado sin mayores Problemas Proxmox y para pruebas Ubuntu Server y Ubuntu Desktop (ambos como VMs) dentro de Proxmox. No hay grandes problemas aquí tampoco.

  • Ahora estoy luchando con la configuración básica para las funciones principales de archivo-servidor y servidor de datos para nextcloud. He estado leyendo durante las últimas semanas, pero no puedo encontrar la manera correcta.
  • ¿Qué tiene más sentido para usted?
  • Dejar que Proxmox maneje el sistema de almacenamiento del servidor de archivos (ZFS mirror / Software RAID 1) y de alguna manera dejar que la VM del servidor de archivos (Ubuntu Server) acceda a él.
  • Pasar los discos duros directamente al servidor de archivos, y crear un RAID allí.

La primera opción me parece más sencilla. También el host (Proxmox) reclamar recursos del sistema no utilizados según sea necesario. Pero, ¿cuál sería la mejor manera, para acceder al almacenamiento ZFS desde dentro de la máquina virtual?

========================================== Hardware (por ahora): Supermicro X11SSM-F G4400 16 GB ECC RAM 32 GB SSD (Sistema HDD: Proxmox, VMs, ISOs, . ) 2×3 TB HDD del antiguo NAS para almacenamiento de datos (2x 4 TB HDD para usos varios y para reemplazar uno de los antiguos HDDs de 3 TB si es necesario)

Hay varias guías para crear RAID por software en Ubuntu en Internet. La mayoría de ellas nos han parecido poco completas o difíciles de entender y seguir. Por eso hemos creado este tutorial tan fácil de usar como hemos podido. Imágenes en cada paso e instrucciones detalladas. De hecho, puede que sea un poco demasiado exhaustivo, pero no pasa nada. Al menos estarás seguro de haber creado el RAID correctamente. Si tienes alguna pregunta o te encuentras con algún problema, no dudes en dejar un comentario más abajo e intentaremos ayudarte.

Los RAID por software de Linux funcionan de forma diferente a los RAID por hardware normales. Están basados en particiones, en lugar de en discos. Esto significa que debe crear particiones coincidentes en todos los discos antes de crear el RAID. En los RAIDs por hardware tienes que añadir los discos al RAID y luego crear la partición.

Este tutorial fue creado durante la instalación de Ubuntu 12.04 64 bit Server Edition. Pretende ser el primero de una serie de tutoriales sobre RAID por software en Linux. Futuros tutoriales cubrirán temas como la recuperación de un disco defectuoso.

Este servidor tiene dos discos de 16GB instalados. Crearemos 2 particiones: una partición swap de 2GB y una partición raíz de 14GB. Una vez que hayamos terminado, el servidor seguirá funcionando si falla uno de los dos discos. La mayoría de las imágenes de este tutorial se explican por sí solas. La opción que debe elegir aparecerá resaltada. Proporcionaremos comentarios en la imagen si hay alguna consideración especial.

  1. Para empezar, ejecute el instalador de Ubuntu. Cuando aparezca el menú ‘Particionar discos’, elige ‘Manual’:
  2. En este caso, los discos son nuevos y no tienen tablas de particiones. Selecciona cada disco para crear una tabla de particiones:

Seleccione el espacio libre en el primer disco para crear particiones en él:

La primera partición será de 2GB al principio del disco (esto se utilizará para el espacio de intercambio):

Puede dejar la configuración de particiones por defecto. Una vez creado el RAID, estas particiones se sobrescribirán, por lo que no es necesario configurarlas aquí:

Seleccione el espacio libre restante en el primer disco para crear la 2ª partición. En este caso, utilizaremos el espacio libre restante para esta partición:

De nuevo, no te preocupes por configurar la partición aquí. Déjala en los valores por defecto:

Después de crear las 2 particiones en el primer disco, repite el proceso y crea particiones idénticas en el segundo disco.

Ahora debería ver tamaños de partición idénticos en ambos discos. Elige ‘Configurar RAID por software’ para empezar a crear el RAID por software:

De nuevo, el software RAID de Linux está basado en particiones, así que necesitaremos crear 2 RAIDs, 1 para cada una de nuestras 2 particiones. Elige ‘Crear dispositivo MD’ para empezar a crear el primero:

Este paso puede resultar confuso para algunas personas. Nuestro primer RAID consistirá en 2 particiones (las particiones de 2GB en cada uno de los discos), así que elige 2 dispositivos activos:

No vamos a utilizar ningún dispositivo de reserva en este ejemplo:

Selecciona sólo las particiones de 2GB. Debería haber una en cada disco:

Volverás al menú de configuración RAID. Elige ‘Crear dispositivo MD’ para empezar a crear el 2º RAID:

Selecciona las dos particiones de 14GB (de nuevo, debería haber una en cada disco):

Elige ‘Finalizar’ para completar la configuración del RAID.

Ahora particionamos los 2 RAIDs. Verás ‘RAID1 device #0’ y ‘RAID1 device #1’. Estos son los únicos que necesitamos particionar.

Para configurar la partición RAID de intercambio, selecciona el dispositivo RAID de 2GB listado bajo ‘Dispositivo RAID1 #0’:

Para ‘Usar como’, selecciona ‘área de intercambio’ y luego elige ‘Terminado de configurar la partición’:

Volverá al menú de particionado. Selecciona el 2º dispositivo RAID (en este caso, es el de 14GB) en el menú. Puedes configurar el dispositivo RAID con cualquier sistema de ficheros que necesites, pero nosotros vamos a utilizar el predeterminado, Ext4. Para el ‘Punto de montaje’, haz que sea la raíz seleccionando “/”. Ahora selecciona “Terminada la configuración de la partición”:

Tus dispositivos RAID deberían tener particiones similares a las que se muestran a continuación. Elige ‘Terminar de particionar y escribir los cambios en el disco’:

Normalmente, la razón por la que se implementa RAID es para que el sistema operativo continúe funcionando en caso de fallo de un solo disco. Elija ‘Sí’ aquí para que no vea ninguna interrupción al arrancar con un disco fallido:

¡Ya casi está! El sistema operativo continuará instalándose en el RAID que ha configurado:

Después de que el sistema operativo se instale, se le pedirá que instale GRUB. Elija YES para instalarlo en el Master Boot Record:

Como puede ver, instalar GRUB en el Master Boot Record lo instalará en ambos discos duros, (/dev/sda & /dev/sdb).

Esto es todo. Una vez completada la instalación, debería ser capaz de arrancar el sistema operativo. Si pierdes un disco duro, el sistema operativo seguirá funcionando sin interrupciones.

Aquí hay algunos enlaces que pueden serte útiles si tienes preguntas sobre este proceso (o deja un comentario abajo y podemos intentar ayudarte):

Aunque el enfoque de esta guía es el hardware, vale la pena primero discutir brevemente las opciones del sistema operativo del servidor de archivos doméstico.

Windows Home Server 2011

Microsoft lanzó su última versión de WHS a principios de este año. Se puede encontrar regularmente por 50 dólares o menos cuando está en oferta. De todos los sistemas operativos de servidores de archivos disponibles, WHS2011 es el más fácil de configurar y administrar para los usuarios familiarizados con la serie Windows de sistemas operativos de escritorio y menos familiarizados con Unix o Linux. Si ha instalado y configurado Windows XP, Vista o 7, puede instalar y configurar WHS2011 con una investigación adicional mínima (o incluso sin ella). La desventaja de esta facilidad de uso para los novatos en servidores de archivos domésticos es, por supuesto, el coste: WHS2011 no es gratuito.

FreeBSD y FreeNAS

FreeBSD es, por supuesto, gratuito. Como es un sistema operativo Unix, requiere tiempo y esfuerzo para aprender a usarlo. Aunque su instalación utiliza un antiguo sistema basado en texto y su interfaz está basada en la línea de órdenes, puede administrarlo desde un PC con Windows utilizando un terminal como PuTTY. Generalmente no recomiendo FreeBSD a usuarios no familiarizados con Unix. Sin embargo, si le intriga el mundo de Unix y está interesado en hacer su primera incursión en un sistema operativo que no sea Windows, configurar un servidor de ficheros es una experiencia de aprendizaje relativamente fácil en comparación con otros proyectos Unix.

FreeNAS está basado en FreeBSD pero está construido específicamente para funcionar como servidor de archivos. Cuenta con una interfaz web intuitiva y fácil de usar, así como una interfaz de línea de comandos. Tanto FreeBSD como FreeNAS soportan ZFS, un sistema de archivos como NTFS y FAT32. ZFS ofrece muchas ventajas respecto a NTFS, como límites funcionales (para el usuario doméstico) en el tamaño de archivos y particiones, autoreparación y RAID-Z. Aunque está dirigido más a usuarios empresariales y comerciales que a consumidores, Matt escribió un artículo con mucha información útil sobre ZFS el año pasado.

Ubuntu y Samba

Ubuntu es posiblemente la distribución de Linux más fácil de usar para los usuarios de Windows. No es sorprendente, entonces, que tenga la mayor base de instalación de cualquier distribución de Linux con más de 12 millones. Aunque existe una edición Ubuntu Server, una de las formas más sencillas de convertir Ubuntu en un servidor de archivos doméstico es instalar y utilizar Samba. (Samba se puede utilizar no sólo en Ubuntu, sino también en FreeBSD.) Samba es especialmente útil si va a tener clientes mixtos (es decir, Windows, OS X y Unix / Linux) utilizando su servidor de archivos doméstico. Aunque FreeNAS ciertamente funciona con clientes Windows, Samba establece el estándar para la integración perfecta con Windows y la interoperabilidad es uno de sus focos.

En resumen, WHS2011 es muy fácil de usar, pero cuesta dinero. Instalar Ubuntu y Samba no es particularmente difícil, e incluso si nunca has utilizado ningún tipo de Linux antes, es probable que puedas tener un servidor de archivos doméstico Samba en funcionamiento en una mañana o una tarde. FreeNAS es posiblemente un poco más difícil que Ubuntu con Samba, pero aún así está al alcance de los principiantes en unas pocas horas. FreeBSD es potencialmente mucho más capaz que WHS, Ubuntu/Samba y FreeNAS, pero muchas de sus características son en su mayoría irrelevantes para un servidor de archivos doméstico y su curva de aprendizaje es bastante empinada. Cuando se configuran correctamente, todas las soluciones anteriores son lo suficientemente seguras para un usuario doméstico típico. Y lo que es más importante, todas estas opciones simplemente funcionan para un servidor de archivos doméstico. Una comparación exhaustiva de los pros y los contras de cada SO en el contexto de un servidor de archivos doméstico está fuera del alcance de este artículo, pero ahora que hemos cubierto algunas opciones de SO que merecen tu consideración, ¡vamos al hardware!

RAID 0 creará striping para aumentar la velocidad de lectura/escritura ya que los datos pueden ser leídos y escritos en discos separados al mismo tiempo. Este nivel de RAID es el que debes usar si necesitas aumentar la velocidad de acceso al disco.

-raid-devices=2 /dev/sdb5 /dev/sdb6 Nota: para ilustración o práctica esto muestra dos particiones en el mismo disco. Esto NO es lo que usted quiere hacer, las particiones deben estar en unidades separadas. Sin embargo, esto le proporcionará un escenario de práctica. Debe listar el número de dispositivos en la matriz RAID y debe listar los dispositivos que ha particionado con fdisk. El ejemplo muestra dos particiones RAID. mdadm: array /dev/md0 iniciado.

Comprueba el desarrollo del RAID.

md0 : raid0 activo sdb6[1] sdb5[0]

995712 bloques 64k chunks dispositivos sin usar:

# tail /var/log/messages También puedes verificar que el RAID se está construyendo en /var/log/messages.

19 de mayo 09:08:51 ub1 kernel: [ 4548.276806] raid0: mirando sdb5

19 de Mayo 09:08:51 ub1 kernel: [ 4548.276809] raid0: comparando sdb5(497856) con sdb6(497856)

19 de mayo 09:08:51 ub1 kernel: [ 4548.276813] raid0: IGUAL

19 de Mayo 09:08:51 ub1 kernel: [ 4548.276815] raid0: FINAL 1 zonas

19 de Mayo 09:08:51 ub1 kernel: [ 4548.276822] raid0: hecho.

19 de Mayo 09:08:51 ub1 kernel: [ 4548.276826] raid0 : md_size is 995712 blocks.

hash_spacing es de 995712 bloques.

19 de mayo 09:08:51 ub1 kernel: [ 4548.276831] raid0 : nb_zone es 1.

19 de mayo 09:08:51 ub1 kernel: [ 4548.276834] raid0 : Asignando 4 bytes para hash.

Crear el sistema de ficheros ext 3 Tiene que colocar un sistema de ficheros en su dispositivo RAID. El sistema de registro ext3 se coloca en el dispositivo en este ejemplo.

# mke2f s-j /dev/md0

mke2fs 1.40.8 (13-Mar-2008)

Tamaño de bloque=4096 (log=2)

Tamaño de fragmento=4096 (log=2)

62464 inodos, 248928 bloques

12446 bloques (5,00%) reservados para el superusuario

Primer bloque de datos=0

Máximo de bloques del sistema de archivos=255852544

May 19 09:08:51 ub1 kernel: [ 4548.276829] raid0 : conf->32768 bloques por grupo, 32768 fragmentos por grupo

7808 inodos por grupo

Copias de seguridad de superbloques almacenadas en bloques

32768, 98304, 163840, 229376

Escribiendo tablas de inodos: hecho

Creación del diario (4096 bloques): realizada

Escritura de superbloques e información contable del sistema de archivos: realizado

Este sistema de archivos se comprobará automáticamente cada 39 montajes o

180 días, lo que ocurra primero. Utilice tune2f s-c o-i para anular la comprobación.

Crear un lugar para montar el RAID en el sistema de ficheros

Para poder utilizar el array RAID necesitará montarlo en el sistema de ficheros. Para propósitos de prueba puede crear un punto de montaje y probar. Para hacer un punto de montaje permanente necesitará editar /etc/fstab.

Monte la matriz RAID

# mount /dev/md0 /raid

Debería poder crear ficheros en la nueva partición. Si esto funciona entonces puede editar el /etc/fstab y añadir una línea parecida a esta

/dev/md0 /raid defaults 0 2

Asegúrate de probar y estar preparado para entrar en modo de usuario único para solucionar cualquier problema con el nuevo dispositivo RAID.

Espero que encuentres útil este artículo.

2 comentarios

“Esto es realmente interesante, Eres un blogger muy hábil. I’ve joined your feed and look forward to seeking more of your magnificent post. Además, he compartido tu sitio web en mis redes sociales!”

disco, utilice disk tool para crear una partición raid en el disco 1, elimine todas las particiones del disco 2 y automáticamente disk tool asignará el disco 2 como miembro raid 3) reinstale ubuntu, seleccionando la partición raid en el disco 1

Usted encontrará la velocidad de instalación 4 X más rápido .. Esta será la forma más fácil … nunca!

Пишу для себя, чтобы не забыть как делал. 95 % рабочее. На комментарии отвечаю, когда увижу.

четверг, 15 августа 2019 г.

Ubuntu 16.04 удаление RAID 1

Статьи по ссылкам относятся относятся к установкам на gpt и efi

Установка на mbr обычная при помощи инсталятора ubuntu server в соответствии с Ubuntu 16.04 настройка програмного RAID, замена неисправного жесткого дискаа

$ sudo apt install gdisk $ sudo gdis k-l /dev/sda $ sudo gdis k-l /dev/sdb

1. Демонтаж существующих RAID устройств (например для переустановки или использования дисков) картинки соответствуют Ubuntu 16.04

Вид с рабочей системы:

$ lsbl k-o NAME, SIZE, FSTYPE, TYPE, MOUNTPOINT

$ sudo mdad m-detail /dev/md0

The simplest way to install Raid 0 ubuntu 20.04 is. 1) Install ubuntu in a smallest partition first as usual 2) Activities ->Грузимся с livecd

$ sudo add-apt-repository universe $ sudo apt update $ sudo apt install ssh mc mdadm

========================================== Можно пропустить Для удобства можно подключиться удаленно: (пользователь ubuntu) Установить пароль $ passwd $ ip a . 192.168.1.239 .

Recientemente he descubierto Turnkey y su plétora de opciones de aplicación. es realmente emocionante. He construido bastantes servidores de archivos, así que mi primer proyecto fue probar el servidor de archivos Turnkey. La instalación fue extremadamente fácil utilizando la ISO para instalar en un servidor de metal desnudo. El servidor tiene 3 unidades instaladas, así que instalé el sistema operativo en una sola unidad con la intención de crear un RAID 1 con las otras dos unidades.

Aquí es donde estoy perplejo. He tratado de mirar a través de los documentos de cómo configurar la unidad RAID, pero no puedo encontrar información clara sobre cómo se hace esto desde Webmin. Después de haber construido una serie de servidores de archivos utilizando OpenMediaVault, la configuración RAID en OMV es muy sencillo y racionalizado. Estoy teniendo dificultades para averiguar cómo construir el RAID utilizando Turnkey.

He encontrado este enlace para configurar RAID con Webmin.

El tutorial es claro, pero soy incapaz de pasar del paso 1, ya que no veo ninguna manera de cambiar una partición de disco a “Linux RAID” sin ir a CL o arrancar en una unidad USB y cambiarlo con GParted.

¿Existe algún tutorial de Turnkey que explique paso a paso cómo configurar un RAID desde Webmin?

Gracias de antemano. Ken

Un paso adelante, un paso atrás.

Acabo de descubrir cómo cambiar el tipo de partición a Linux RAID desde Webmin. Así que, pude cambiar el tipo de partición a Linux RAID en las unidades 2 y 3. Sin embargo, me di cuenta de que al hacer clic en Linux RAID en el menú, me sale el siguiente error.

El archivo de estado RAID del kernel /proc/mdstat no existe en su sistema. Su kernel probablemente no soporta RAID.

¿Hay alguna razón por la que la opción RAID no existe en el sistema.

Un paso más

Un poco más de investigación y descubrí que el módulo “mdadm” aparentemente no está instalado en Turnkey File Manager. Así que. Entré en SSH e instalé mdadm en el sistema. Después de un reinicio, las opciones RAID de linux finalmente aparecieron.

Sin embargo, incluso después de la instalación mdam he intentado crear una matriz RAID 1 y el sistema nunca se mueve a la siguiente fase para seleccionar las particiones para la matriz. paso 3 en el tutorial.

Así que todavía estoy atascado.

Hola Ken

Siento oír hablar de tus problemas para configurar RAID.

Desgraciadamente, no creo que pueda ayudarte mucho.

Nunca he configurado RAID por software (de hecho, nunca he configurado ningún tipo de RAID). Siempre he tenido la intención de jugar con ello, pero nunca he tenido la necesidad (siempre he usado LVM y he confiado en las copias de seguridad).

Además, tengo una preferencia personal por la línea de comandos,

Dicho esto, sin duda debería ser posible. Bajo el capó, TurnKey es Debian. v14.x se basa en Debian Jessie y nuestra próxima (y muy esperada) versión v15.0 se basará en Debian Stretch. Creamos los paquetes Webmin nosotros mismos, pero aparte de nuestro módulo TKLBAM, todo el código proviene de Webmin.

Veo que ha instalado mdadm. AFAIK esa debería ser la única dependencia/requisito.

Sin embargo, su solicitud de ayuda me ha ayudado a descubrir un error en nuestra próxima versión 15.0. Gracias por ello. (Para tu información. ).

Intenté seguir el tutorial que enlazaste yo mismo (usando una v14.2 VM que tenía a mano). Creo que me he perdido algo, pero a mí tampoco me funciona. Sin embargo, mi experiencia suena un poco diferente a la tuya. He llegado hasta la pantalla de “Opciones del dispositivo RAID” pero sólo veo una “Particiones en RAID” (y la misma que aparece en “Particiones de repuesto”). Si intento continuar, obtengo un error “Failed to create RAID : At least 2 partitions must be selected for mirroring”. Así que eso es un pequeño fallo.

Realmente necesito volver al desarrollo de la v15.0 para poder lanzarla, así que no puedo permitirme dedicar más tiempo a esto ahora mismo, lo siento. La única otra cosa que podría sugerir, es intentar desde la línea de comandos. Una de las (muchas) razones por las que prefiero la línea de comandos es que a menos que veas un video, me parece que es muy fácil malinterpretar las cosas, perder pasos vitales, o hacer clic en la cosa equivocada cuando se utiliza una interfaz gráfica de usuario. Creo que el uso de tutoriales de línea de comandos es generalmente más fiable como IMO es más difícil de malinterpretar las cosas y, a menudo los mensajes de error le dará señales claras sobre cualquier cosa que no está funcionando como debería (y, a menudo apuntan a por qué, o al menos dar un mensaje de error a Google). También es mucho más fácil averiguar exactamente lo que los comandos están haciendo realmente (por ejemplo, a través de las páginas man, o incluso google). FWIW Hice un rápido google para usted y encontró un tutorial que podría valer la pena intentarlo. Es para una versión anterior de Debian (Squeeze fue la anterior a Jessie) pero espero que sea similar, si no la misma (como se ha sugerido anteriormente, cualquier cosa que no funcione, intente buscar en google mensajes de error explícitos).

Si prefiere persistir con Webmin, entonces tal vez considere publicar en los foros de soporte de Webmin. Ellos probablemente podrán ayudarte mucho más que yo. Tenga en cuenta que el tema de Webmin que proporcionamos por defecto es diferente al que Webmin utiliza por defecto (aunque cambiaremos al tema por defecto para la v15.0) y es una versión más antigua, pero por lo demás, todo debería ser como se espera. Como señalé anteriormente, la base de TurnKey v14.x es Debian Jessie.

Lo siento, no he podido guiarte hasta los pasos exactos necesarios, pero espero haberte servido de ayuda. Buena suerte con ello y si consigues solucionarlo, por favor postea de nuevo ya que estoy seguro de que otros usuarios lo encontrarán útil.

 Linux Software RAID (a menudo llamado mdraid o MD/RAID ) hace posible el uso de RAID sin un controlador RAID hardware. Para este propósito,

A diferencia del RAID por software, los controladores RAID por hardware suelen tener una caché integrada (a menudo de 512 MB o 1 GB), que puede protegerse mediante una BBU o ZMCP. Tanto con las matrices RAID por hardware como por software, sería una buena idea desactivar las cachés de escritura de los discos duros, para evitar la pérdida de datos durante los cortes de energía. Las unidades SSD con condensadores integrados, que escriben el contenido de la caché en la memoria FLASH PROM durante los fallos de alimentación, son la excepción (como las unidades SSD de la serie 320 de Intel).

Contenido

1 Enfoque funcional

2 Superbloque RAID

2.1 Metadatos del superbloque Versión 0.90

2.2 Metadatos Superblock Versión 1.*

3.1 Preparación de particiones

4.1 Probando la Alineación

4.2 Ajuste de la velocidad de sincronización

Enfoque funcional

Un array RAID por software de Linux soportará los siguientes niveles RAID: [1]

RAID 0

RAID 1

RAID 4

  • RAID 5
  • RAID 6 [2]
    • RAID 10
    • Superbloque RAID
    • Un array RAID por software de Linux almacenará toda la información necesaria sobre un array RAID en un superbloque. Esta información se encontrará en diferentes posiciones dependiendo de la versión de metadatos.
    • Versión de metadatos del superbloque 0.90
    • El superbloque de la versión 0.90 tiene una longitud de 4.096 bytes y se encuentra en un bloque alineado de 64 KiB al final del dispositivo. Dependiendo del tamaño del dispositivo, el superbloque puede empezar como muy tarde 128 KiB antes del final del dispositivo o 64 KiB antes del final del dispositivo. Para calcular la dirección del superbloque, el tamaño del dispositivo debe redondearse hacia abajo a los 64 KiB más cercanos y luego deducir 64 KiB del resultado. [3]

    Limitaciones de metadatos de la versión 0.90:

    28 dispositivos como máximo en una matriz

    • cada dispositivo puede tener un tamaño máximo de 2 TiB
    • No admite la gestión de bloques defectuosos [4].
    • Metadatos de superbloques Versión 1.*
    • La posición del superbloque depende de la versión de los metadatos: [5]
    • Versión 1.0: El superbloque se sitúa al final del dispositivo.
    • Versión 1.1: El superbloque se encuentra al principio del dispositivo.

    Versión 1.2: El superbloque está 4 KiB después del principio del dispositivo.

    Creación de una matriz RAID

    El siguiente ejemplo mostrará la creación de un array RAID 1. En el ejemplo se utilizará un sistema en vivo Fedora 15.

    Preparación de las particiones

    El array RAID software se extenderá a través de /dev/sda1 y /dev/sdb1. Estas particiones tendrán el tipo de autodetección raid de Linux (fd):

    • Creando un RAID 1
    • El progreso del proceso de inicialización puede ser solicitado a través del sistema de ficheros proc o mdadm:
    • Probando la Alineación

    En el ejemplo se utilizarán los metadatos de la versión 1.2. Los metadatos están por lo tanto cerca del principio del dispositivo con los datos reales después de él, sin embargo alineados en el límite de 1 MiB ( Desplazamiento de datos: 2048 sectores , un sector tiene 512 bytes):

    Dependiendo de la versión de mdadm el tamaño del offset de datos varía:

    • Nota: La versión de desarrollo actual de mdadm permite especificar el tamaño del desplazamiento de datos manualmente (par a-create, – grow, no par a-add): Añadir el indicado r-data-offset para Create y Grow
    • el tamaño sigue disponible, sólo reduce el ‘reservado’, no lo aumenta. Esto corrige un error por el qu e-añadir un repuesto fallaba porque d
    • desde mdadm-3.2.4: 128 MiB Data Offset (262144 sectores) super1: dejar más espacio delante de los datos por defecto. (04.04.2012): El kernel está creciendo la capacidad de evitar la necesidad de un archivo de copia de seguridad durante la remodelación por ser capaz de cambiar el desplazamiento de datos. Para que esto sea útil necesitamos un montón de espacio libre antes de los datos por lo que el desplazamiento de datos se puede reducir. Así que para los metadatos v1.1 y v1.2 haga el data_offset por defecto mucho más grande. Apunta a 128Meg, pero mantén una potencia de 2 y no uses más del 0.1% de cada dispositivo. No cambie v1.0 ya que se utiliza cuando se requiere que data_offset sea cero.

    desde mdadm-3.1.2: 1 MiB Data Offset (2048 sectores) super1: fomentar la alineación de datos en el límite de 1Meg (03.03.2010): Para los metadatos 1.1 y 1.2 en los que data_offset no es cero, es importante alinear data_offset con el tamaño de bloque subyacente. Actualmente no tenemos acceso al dispositivo en particular en avail_size así que intenta forzar a un límite de 1Meg. También por defecto 1.x metadatos a 1.2 como documentado. (ver también Re: Mezclando versiones de mdadm)

    Ajustando la tasa de sincronización

    Un volumen RAID puede utilizarse inmediatamente después de su creación, incluso durante la sincronización. Sin embargo, esto reduce la tasa de sincronización.

    En este ejemplo, accediendo directamente a un array RAID 1 que abarca dos SSDs (sin particiones en /dev/sda y /dev/sdb), la sincronización comienza a aproximadamente 200 MB/s y cae a 2.5 MB/s tan pronto como los datos han sido escritos en el sistema de ficheros del array RAID 1:

    La sincronización puede acelerarse aumentando manualmente la velocidad de sincronización: [6]

    Eliminación de una matriz RAID

    Si un volumen RAID ya no es necesario, puede desactivarse mediante el siguiente comando:

    El superbloque para los dispositivos individuales (en este caso, /dev/sda1 y /dev/sdb1 del ejemplo anterior) se eliminará mediante los siguientes comandos. Haciendo esto, puedes reutilizar estas particiones para nuevas matrices RAID.

    Hoja de ruta

    • Neil Brown publicó una hoja de ruta para MD/RAID para 2011 en su blog:
    • since mdadm-3.2.5: 128 MiB Data Offset (262144 sectors), if possible: super1: fix choice of data_offset. (14.05.2012): While it is nice to set a high data_offset to leave plenty of head room it is much more important to leave enough space to allow of the data of the array. So after we check that sb->Se discute periódicamente el soporte de la característica de recorte ATA para SSDs (soporte de disco von Linux Software RAID). Sin embargo, esta función sigue estando al final de la lista de futuras funciones (para finales de junio de 2011):