Logotipo de Zephyrnet

Una guía básica para Kubernetes en producción

Fecha:

Este artículo fue publicado como parte del Blogatón de ciencia de datos.

Introducción

Popularmente hecho usando sistemas de orquestación de contenedores y arquitectura de microservicio. En 2014 se escucharon los primeros ecos de la palabra Kubernetes en tecnología, y la conquista de Kubernetes se debe en gran medida a su flexibilidad y autoridad. En ese entonces, la gente estaba en conflicto sobre "¿Cómo se pronuncia?"

Avance rápido ocho años, y ahora es la herramienta de gestión de contenedores más potente que está conquistando el mundo. Como una solución de código abierto establecida con un rico ecosistema, ha proporcionado la columna vertebral de muchos de los servicios en línea más destacados del mundo.

Sin embargo, no mucha gente lo sabe cuando se trata de Kubernetes en producción. Las cosas pueden volverse un poco más complejas y es necesario explicar varios temas en detalle.

La motivación principal detrás de esta guía es brindar una descripción general sencilla de todo el mundo de Kubernetes y ayudarlo a comenzar con los fundamentos de Kubernetes.

Descubrirá la importancia, los componentes principales, las diferentes arquitecturas, los desafíos que enfrentan los usuarios y cómo superarlos. Aprenderá a implementar su primera aplicación en un clúster de Kubernetes y, hacia el final de la guía, veremos más de cerca algunas de las consideraciones clave y los casos de uso de Kubernetes.

Así que sin más pausa, comencemos. ¡Divertirse!

Tabla de contenido

  1. ¿Qué es Kubernetes?
  2. ¿Por qué es importante Kubernetes para su organización?
  3. Arquitectura y conceptos básicos de Kubernetes
  4. Una diferencia detallada entre Kubernetes y Docker
  5. Desafíos para los usuarios de Kubernetes y sus soluciones
  6. Beneficios de Kubernetes para empresas
  7. Cómo configurar Docker y Kubernetes en sistemas Linux
  8. Prácticas recomendadas para Kubernetes en producción y productividad de clúster mejorada
  9. Ejemplos de gigantes tecnológicos que utilizan Kubernetes en todo su potencial
  10. Consideraciones Finales:
  11. sobre el autor
  12. Referencias
Kubernetes en producción
https://unsplash.com/@carrier_lost

¿Qué es Kubernetes?

Kubernetes (también conocido como k8s o "Kube") es una poderosa herramienta de administración de contenedores. Es una plataforma de orquestación portátil, extensible y de código abierto que automatiza múltiples procesos y servicios manuales para implementar, manejar y escalar clústeres en contenedores.

Kubernetes fue inicialmente inventado y diseñado por ingenieros de Google y actualmente tiene un gran ecosistema de rápido crecimiento. RedHat fue una de las empresas que trabajó con Google en Kubernetes cuando Google estaba desarrollando más de 2 mil millones de implementaciones de contenedores cada semana. Google donó el proyecto Kubernetes a la recientemente desarrollada Cloud Native Computing Foundation (CNCF) en 2015.

¿Por qué es importante Kubernetes para su organización?

Kubernetes, sin duda, es una solución adecuada para tu empresa si lo utilizas para la tarea adecuada y en el contexto adecuado. Es la próxima gran ola en la computación en la nube y la plataforma más famosa para controlar y orquestar soluciones basadas en contenedores.

Suponga que, si se le pide que ejecute contenedores manualmente en producción, en ese caso, puede terminar con cientos o miles de contenedores a lo largo del tiempo, lo que es absolutamente una pérdida de tiempo. No es suficiente ejecutar contenedores. También necesita implementar, administrar, conectar, actualizar, integrar, orquestar, escalar hacia arriba o hacia abajo y hacerlos tolerantes a fallas.

Aquí es donde entra Kubernetes. Si crea una solución basada en contenedores a gran escala, K8s es la herramienta de elección si la necesita. Puede implementar rápidamente, escalar varias instancias de contenedores, operar varios servicios y escalarlos hacia arriba y hacia abajo con solo un poco de práctica.

Arquitectura y conceptos básicos de Kubernetes

Cuando acaba de empezar con Kubernetes, es bueno conocer de antemano los componentes esenciales y la arquitectura funcional de Kubernetes. El clúster de Kubernetes sigue una arquitectura cliente-servidor y está compuesto por un plano de control (maestro), un sistema de almacenamiento distribuido para mantener el estado del clúster (etcd) consistente y un grupo de nodos de clúster (trabajadores).

Kubernetes maneja cargas de trabajo colocando sus pods en nodos. Según su configuración, un nodo puede definir una máquina virtual o física. Cada nodo incluirá los componentes esenciales para ejecutar los pods. Hay dos categorías separadas dentro de Kubernetes: nodos maestros y trabajadores.

Veamos cada categoría en detalle a continuación:

El plano de control o nodo maestro

Es un tomador de decisiones global para el clúster formado por el servidor Kube-API, el programador Kube, el administrador del controlador en la nube y el administrador del controlador Kube. Controla la programación y el comportamiento general del clúster. Los nodos que tienen estos componentes en ejecución no tienen ningún contenedor de usuario en ejecución. El plano de control es el componente principal del clúster y generalmente se denomina nodos maestros.

1. Cloud-controller-manager (maestro)

El administrador del controlador de la nube se ejecuta en el nodo principal y maneja los procesos y contenedores del controlador en los pods. También se emplea para inspeccionar si un nodo se terminó o configuró enrutadores, balanceadores de carga o volúmenes en la infraestructura de la nube. Y es un administrador de controladores en la nube que le permite conectar sus clústeres con la API del proveedor de la nube subyacente.

2. Etcd-Almacenamiento de datos (maestro)

Etcd es un almacén de clave-valor simple y distribuido que se usa para mantener y replicar los datos del clúster de Kubernetes. La información que almacena incluye la cantidad de pods, su estado, espacio de nombres, objetos API y elementos de detección de servicios. También contiene la información del clúster en pares clave-valor, y para ejecutar etcd, primero debe configurar una herramienta de línea de comandos para comunicarse con dicho clúster.

3. Administrador de control de Kube (maestro)

El administrador del controlador de Kubernetes es un componente de nodo maestro. Es un grupo de controladores agrupados dentro de un solo binario y opera en el proceso de control. El controlador de nodos, el controlador de replicación y el controlador de puntos finales están presentes en este administrador.

4. Programador de Kube (maestro)

Kube-scheduler es un componente del plano de control responsable de asignar pods a los nodos dentro de su clúster en función de la utilización de recursos. El programador utilizará solicitudes de cómputo, uso de memoria y restricciones de hardware/software.

Nodo trabajador

Un nodo trabajador ejecuta las aplicaciones en contenedores y tendrá una instancia de kubelet, Kube-proxy y cierto tiempo de ejecución del contenedor. Un nodo trabajador está controlado por el nodo maestro y constantemente informa al servidor API del plano de control sobre su estado.

1. Kubelet (trabajador)

El kubelet funciona como un agente dentro de cada nodo en un clúster de Kubernetes. Es responsable del buen funcionamiento de los ciclos de pod y de la vigilancia de las especificaciones de pod nuevas o modificadas de los nodos maestros. Se asegura de que el estado de los pods coincida con la especificación del pod y habla con frecuencia con la API de Kubernetes para reenviar los detalles de salud de los pods.

2. Kube-proxy (trabajador)

Kube-proxy es un servicio de proxy de red que se ejecuta en cada nodo trabajador en un clúster de Kubernetes. Realiza el reenvío de solicitudes a los pods/contenedores correctos y mantiene las reglas de la red.

Diferencia entre Kubernetes y Docker

Kubernetes y Docker son dos temas que a menudo confunden a las personas en tecnologías nativas de la nube. Si necesita tomar una decisión comercial, es posible que se pregunte cómo se relacionan estos dos entre sí.

Entendamos la diferencia entre ellos en detalle en la siguiente tabla:

Kubernetes Docker
Definición Kubernetes es un ecosistema para manipular un grupo de contenedores Docker llamados pods. Docker es una plataforma de contenedores para construir, configurar y distribuir contenedores.
Registro y Monitoreo Kubernetes ofrece herramientas integradas para el registro y la supervisión.
Docker tiene opciones para herramientas de terceros como ELK para registro y monitoreo.
Resultado

Kubernetes no es una solución completa y utiliza complementos personalizados para su funcionalidad.

Docker utiliza su propia solución nativa de agrupación en clústeres para contenedores Docker llamada Docker Swarm.

Instalación La instalación es complicada en Kubernetes, pero los clústeres son potentes una vez configurados. La instalación es rápida y fácil en comparación con Kubernetes, pero el clúster es débil.

GUI Kubernetes tiene su propio tablero. No hay GUI en Docker.
Escalabilidad Kubernetes es altamente escalable y ágil. Docker también es altamente escalable y escala 5 veces más rápido que Kubernetes.
Escalado automático Kubernetes le permite hacer escalado automático. Docker no le permite hacer escalado automático.
Balanceo de carga En Kubernetes, se requiere intervención manual para equilibrar el tráfico de carga entre diferentes contenedores en Pods separados. Docker equilibra automáticamente la carga del tráfico entre contenedores en los clústeres.
Actualizaciones continuas y reversiones

Kubernetes puede implementar actualizaciones continuas y realizar reversiones automatizadas.

Docker también puede implementar actualizaciones continuas, pero no reversiones automáticas.
Volúmenes de datos Kubernetes puede compartir volúmenes de almacenamiento solo con otros contenedores en el mismo pod.

Docker puede compartir volúmenes de almacenamiento con cualquier otro contenedor.

Desafíos que enfrenta Kubernetes en producción

Si bien Kubernetes ha brindado una solución ideal para la mayoría de los problemas de entrega de aplicaciones de microservicios, las personas aún enfrentan muchos problemas al usar o implementar contenedores. A medida que implementamos Kubernetes para la orquestación de contenedores, algunos desafíos son exclusivos de Kubernetes.

Echemos un vistazo más profundo y veamos cómo evitar estos desafíos para desbloquear todo el potencial:

1. Problemas de seguridad

Kubernetes no está destinado a hacer cumplir las políticas; por lo tanto, la seguridad sigue siendo uno de los desafíos más importantes de Kubernetes. En palabras simples, es complejo y, si no se controla correctamente, puede dificultar el reconocimiento de vulnerabilidades. El uso indirecto de Kubernetes para implementaciones proporciona una manera fácil para que los piratas informáticos ingresen a su sistema.

Solución: Para superar este desafío, las organizaciones deben mejorar la seguridad con módulos de terceros e integrar la seguridad y el cumplimiento en sus etapas de creación, prueba, implementación y producción. Además, la clave privada se puede ocultar para obtener la máxima protección cuando divide un contenedor de front-end y back-end a través de una interacción controlada.

2. Problemas de red

Los enfoques de redes tradicionales son incompatibles y muchas organizaciones han experimentado algunos problemas. Los desafíos a los que se enfrenta, como la alta latencia y las caídas de paquetes, siguen aumentando con la escala de su implementación. Otros problemas que se observan son la complejidad y la tenencia múltiple. En última instancia, la raíz del problema es la configuración central de Linux porque el rendimiento de Kubernetes depende en gran medida de ella. Por lo tanto, debe verificar constantemente el modo de control de frecuencia de la CPU.

Solución: Asigne el complemento de interfaz de red de contenedores (CNI) que permite que Kubernetes se integre sin problemas en la infraestructura y acceda a aplicaciones en diversas plataformas. Otra forma de enfrentar este desafío es aumentar el tamaño de los búferes de red en el núcleo de Linux, la cantidad de colas en la NIC y configurar coalesce.

Estas soluciones hacen que la comunicación entre contenedores sea fluida, rápida y protegida, lo que da como resultado un procedimiento de orquestación de contenedores sin inconvenientes.

3. Problemas de interoperabilidad

La interoperabilidad puede ser un problema importante, al igual que las redes. Las comunicaciones entre aplicaciones nativas pueden ser confusas cuando habilita aplicaciones nativas de la nube interoperables en Kubernetes. También afecta la implementación de clústeres y no funciona tan satisfactoriamente en producción como en desarrollo, control de calidad (QA) o ensayo. Además, puede enfrentar muchos problemas de rendimiento, gobernanza e interoperabilidad al migrar a un entorno de producción de clase empresarial.

Solución: Los usuarios pueden implementar la misma API, interfaz de usuario y línea de comandos para reducir los desafíos de interoperabilidad. Además, pueden aprovechar proyectos de colaboración en diferentes plataformas, como Google, RedHat, SAP e IBM, para ofrecer aplicaciones que se ejecutan en plataformas nativas de la nube.

Kubernetes en Producción – Beneficios

Kubernetes es el proyecto de más rápido crecimiento después de Linux en el ecosistema de software de código abierto. Hay innumerables razones detrás de eso y por qué cada desarrollador elige Kubernetes como una solución para resolver las necesidades de orquestación de contenedores.

Estudiemos cada uno de ellos en particular a continuación:

1. Kubernetes puede mejorar la productividad de los desarrolladores

Kubernetes, con sus construcciones declarativas y su enfoque amigable con las operaciones, puede conducir a ganancias de productividad significativas si se implementa adecuadamente en sus flujos de trabajo de ingeniería. El entorno Cloud Native Computing Foundation (CNCF) facilita el uso de Kubernetes al reducir de manera eficiente el impacto negativo de su complejidad general. Los equipos pueden escalar e implementar más rápido al confiar en algunas herramientas existentes creadas explícitamente para el software nativo de la nube. En lugar de una implementación al mes, los equipos ahora pueden implementar varias veces al día y crear soluciones que casi nunca podría pensar en usted mismo.

2. Kubernetes es de código abierto y puede ser una alternativa más económica

Kubernetes es un software totalmente de código abierto (FOSS), un proyecto dirigido por la comunidad supervisado por CNCF y, a veces, puede ser más asequible que otras soluciones (según las necesidades de su aplicación). Aunque Kubernetes se desarrolla y mantiene de forma activa, suele ser más caro para aplicaciones mínimas debido a las necesidades informáticas generales. Con muchas empresas de alto perfil defendiendo su causa, ninguna empresa es "dueña" ni tiene autoridad unilateral sobre cómo se expande la plataforma.

3. Portabilidad

Kubernetes puede ejecutarse en prácticamente cualquier infraestructura subyacente, como una nube pública, una nube privada, hardware local o incluso bare metal. El desarrollo de aplicaciones para Kubernetes significa que el código se puede volver a implementar varias veces en una variedad de otras configuraciones de infraestructura y entorno, lo que lo convierte en un software altamente portátil.

4. escalabilidad

Kubernetes facilita escalar horizontalmente la cantidad de contenedores en uso, según los requisitos de la aplicación. Puede modificar este número desde la línea de comandos o utilizar el escalador automático horizontal de pods para ajustar el número de contenedores en función de las métricas de uso. Se asegura de que su aplicación esté en funcionamiento de manera muy confiable al implementar actualizaciones para adaptar su software sin tiempo de inactividad.

5. Autocuración

Hay algunas razones por las cuales los contenedores pueden fallar. Kubernetes mantiene las implementaciones en buen estado reiniciando los contenedores que fallan, reemplazando los contenedores que no responden, matando los contenedores que no responden a su verificación de estado definida por el usuario y recreando los contenedores que estaban en un nodo back-end fallido en otros nodos públicos. No los anuncia a los consumidores hasta que están listos para servir y ayuda a mitigar el punto débil común del proceso de mantenimiento de la aplicación.

Cómo configurar Docker y Kubernetes en el sistema Linux

Este tutorial lo ayudará a configurar Docker, Kubernetes y sus herramientas en sistemas Linux. Este código también se puede usar para configurar otras distribuciones de Linux.

Nota: Este ejemplo lo ayudará a configurar Docker, Kubernetes y las herramientas esenciales necesarias para implementar sus aplicaciones en su estación de trabajo. Si está buscando un tutorial que lo ayude a crear su propio clúster e implementar aplicaciones en el clúster, siga este excelente guía.

Pre-requisitos

#1. El primer paso es instalar Docker, ya que se requiere en todas las instancias de Kubernetes. Abra el terminal desde la cuenta de usuario raíz, actualice la información del paquete y asegúrese de que el paquete apt funcione ejecutando el siguiente comando.

Comando

Cómo configurar el muelle

#2. En la siguiente línea, añadimos la nueva clave GPG, una herramienta empleada en apt seguro para firmar archivos y comprobar sus firmas. Después de eso, actualice la imagen del paquete API.

Comando

Comando: Kubernetes en producción

#3. Si todos los comandos se han ejecutado con éxito, puede instalar el motor Docker. Pero es esencial verificar que la versión del kernel que está utilizando sea la correcta. De lo contrario, considere actualizar el índice del paquete.

Comando

Comando 2: Kubernetes en producción

#4. Después de esto, ejecute el comando para instalar Docker Engine y el demonio Docker. Verifique si Docker está instalado o no.

Comando

Docker - Kubernetes en producción

#5. Ahora, ejecute el siguiente comando para instalar etcd 2.0 en Kubernetes Master Machine.

Comando

Comando 6

#6. Ahora es la etapa final en la que construiremos Kubernetes y lo instalaremos en todas las máquinas del clúster. El siguiente comando creará un directorio _output en la raíz de la carpeta Kubernetes. Desde aquí, podemos extraer esta carpeta a cualquier carpeta de nuestra elección. En nuestro ejemplo, lo extraemos en /opt/bin.

Comando

Plataforma de la nube

#7. Ahora es la parte de la creación de redes. Esta sección creará una entrada en el archivo de host para comenzar con la configuración del nodo y el maestro de Kubernetes. Esto se puede hacer en la máquina del nodo.

Comando

Kubernetes - Kubernetes en producción

#8. Haremos configuraciones reales en Kubernetes Master copiando todos los archivos de configuración a sus ubicaciones actuales.

Comando

maestro de Kubernetes

#9. Después de copiar todos los archivos de configuración en las ubicaciones requeridas, regrese al mismo directorio donde construimos la carpeta Kubernetes.

Comando

Kubernetes en producción

#10. Ahora actualice el archivo de configuración copiado en /etc.dir. Configure etcd en el maestro utilizando el siguiente comando.

Comando

comando 4 | Kubernetes en producción

#11. Ahora configuraremos Kube-apiserver en el maestro. Modificar el /etc/default/kube-apiserver archivo, que copiamos antes.

Comando

Kubernetes en producción

#12. A continuación, configuraremos Kube Controller Manager agregando el siguiente contenido en /etc/default/Kube-controlador-administrador.

Comando

Kubernetes en producción

#13. Configure el programador de Kube en el archivo respectivo, y estamos listos para continuar al abrir Kubernetes Mater reiniciando Docker.

Comando

Comando

#14. El nodo trabajador ejecutará dos servicios: kubelet y Kube-proxy. Copie los archivos binarios (que descargamos anteriormente) en las carpetas requeridas para configurar el nodo trabajador.

Comando

Método de copia de los archivos.

#15. Para configurar el archivo kubelet y Kube-proxy, abra la configuración en /etc/init/kubelet.conf.

Comando

configurar

#16. Todas las configuraciones para Master y Worker están hechas. Reinicie el servicio Docker y verifique ejecutando los siguientes comandos.

Comando

comando

Conclusión: Ahora ha instalado con éxito Docker y Kubernetes en su sistema. Después de este paso, ya está listo para implementar sus aplicaciones en el clúster de Kubernetes. Esta guía aquí puede ayudarlo a aprender cómo implementar su primera aplicación en el clúster.

Mejores prácticas para Kubernetes en producción

Kubernetes avanza en una solución de contenedor preparada para el futuro para mejorar la productividad, y se ha convertido en la herramienta más frecuente en el dominio DevOps, según la encuesta 2020 de CNCF.

Con la popularidad, también crecen las complejidades para administrar y manejar su clúster. Para utilizar sus clústeres de Kubernetes en todo su potencial, recomiendo seguir las prácticas recomendadas que se tratan en esta guía.

1. Siempre confirme que está usando la última versión

Con sus actualizaciones regulares de versión, siempre debe asegurarse de estar utilizando la última versión estable de Kubernetes en su clúster de producción porque Kubernetes lanza nuevas funciones, correcciones de errores y actualizaciones de plataforma con sus actualizaciones periódicas. La descarga de las últimas versiones asegurará que no se pierda los parches de seguridad actualizados que difieren los posibles vectores de ataque mientras reparan las vulnerabilidades informadas. La seguridad actualizada es crucial; por lo tanto, es mejor actualizar el clúster con la última versión de Kubernetes.

2. Utilice el control de versiones para archivos de configuración

Use GitOps, un flujo de trabajo basado en Git, para almacenar sus archivos de configuración vinculados a su implementación, ingreso, servicios y otros datos cruciales. Debe hacerse antes de enviar datos a su clúster, ya que lo ayudará a realizar un seguimiento de quién realizó los cambios. Además, adaptarse a un flujo de trabajo basado en git ayuda a mejorar la productividad al reducir los tiempos de implementación, mejorar la trazabilidad de errores y automatizar los flujos de trabajo de CI/CD.

3. Supervisar los componentes del plano de control

Un error común que cometen muchos profesionales es olvidarse de monitorear el cerebro del clúster de Kubernetes (el plano de control). Algunos de los componentes cruciales del panel de control son los siguientes:

  • Servicio de API de Kubernetes
  • kubelet
  • controlador-gerente
  • etcd
  • Proxy de Kube
  • Kube-DNS.

Estos componentes son el corazón de su clúster de Kubernetes y monitorearlos ayuda a determinar problemas/amenazas dentro del clúster y aumentar su latencia.

4. Audite sus registros regularmente

Los registros de cualquier clúster tienen mucho que decir, y todos los registros almacenados en /var/log/audit.log deben auditarse periódicamente. La auditoría de los registros ayuda a:

  • Identifique las amenazas
  • Supervisar el consumo de recursos
  • Registre latidos de eventos clave del clúster de Kubernetes

La política de auditoría del clúster de Kubernetes está presente en /etc/Kubernetes/audit-policy.yaml y puede personalizarla según sus requisitos.

5. Usa imágenes de contenedores pequeños

La mayoría de los desarrolladores confunden el uso de la imagen base, que generalmente consiste en hasta un 80 % de paquetes y bibliotecas que no necesitarán. Siempre se recomienda emplear imágenes acoplables más pequeñas que ocupen menos espacio de almacenamiento y le permitan crear compilaciones más rápidas. Opte por Alpine Images, que son casi 10 veces más pequeñas que la imagen base, y agregue las bibliotecas y los paquetes necesarios sobre la marcha, según sea necesario para su aplicación.

Gigantes tecnológicos que usan Kubernetes en producción

Muchos ingenieros de Google, Amazon, Red Hat y otros ya han entendido el poder de Kubernetes. Veamos cómo lo están usando:

1. Amazonas

Amazon EC2, un servicio de AWS de primera categoría, utiliza Kubernetes para administrar sus clústeres, instancias informáticas y ejecutar contenedores en estas instancias. EC2 utiliza los procesos de implementación, mantenimiento y escalado que le permiten ejecutar cualquier tipo de aplicación en contenedores utilizando el mismo conjunto de herramientas en las instalaciones y en la nube. Además, muy pocas personas saben que Amazon ha colaborado con la comunidad de Kubernetes. Contribuye a su código base, que ayuda a los usuarios a aprovechar los componentes y servicios de AWS. Amazon EKS es un conforme certificado que se utiliza para manejar el plano de control de Kubernetes.

2. Microsoft

AKS es un servicio completamente administrado que usa Kubernetes en Azure sin administrar sus clústeres individualmente. Azure puede manejar todas las complejidades de Kubernetes, mientras que uno se enfoca en los clústeres. Algunas características esenciales son pagar solo por los nodos, actualizaciones de clústeres más manejables e integración de Kubernetes RBAC y Azure Active Directory.

3. Chispa apache

Spark es un marco informático distribuido gratuito y de código abierto que maneja numerosos conjuntos de datos con la ayuda de un grupo de máquinas. Pero no controla el dispositivo. Aquí es donde admite Kubernetes. Diseña su propio controlador que se ejecuta dentro de Kubernetes Pod. El controlador crea ejecutores que también se ejecutan dentro de los pods de Kubernetes. Los conecta y ejecuta los scripts de código.

Kubernetes en producción: reflexiones finales

Aquí estamos al final. Espero que esta guía le haya brindado los conocimientos básicos y la información sobre las principales definiciones, componentes, diferencias y arquitectura de Kubernetes. El objetivo de esta guía fue informarle sobre el mundo de Kubernetes para que comience a usarlo en su equipo de inmediato.

Hágame saber la información más crítica de Kubernetes que aún nos falta en la sección de comentarios a continuación.

Soy un científico de datos con una licenciatura en informática especializada en aprendizaje automático, inteligencia artificial y visión artificial. Mrinal también es bloguero independiente, autor y geek con cinco años de experiencia en su trabajo. Con experiencia trabajando en la mayoría de las áreas de la informática, actualmente estoy cursando una Maestría en Computación Aplicada con una especialización en IA de la Universidad de Windsor, y soy escritora y analista de contenido independiente.

Referencias

1. https://kubernetes.io/docs/tutorials/kubernetes-basics/

2. https://www.redhat.com/en/topics/containers/what-is-kubernetes

3. https://www.tutorialspoint.com/kubernetes/index.htm

4. https://auth0.com/blog/kubernetes-tutorial-step-by-step-introduction-to-basic-concepts/

5. https://github.com/kubernetes/kubernetes

6. https://en.wikipedia.org/wiki/Kubernetes

7. https://cloud.google.com/learn/what-is-kubernetes

Los medios que se muestran en este artículo no son propiedad de Analytics Vidhya y se utilizan a discreción del autor. 

punto_img

Información más reciente

punto_img