Acerca de Angie#
Angie /andʒi/ es un servidor web eficiente, potente y escalable que fue bifurcado de nginx:
Concebido por ex-desarrolladores del equipo original para ir más allá de la visión anterior y actuar como un reemplazo directo sin cambios importantes ni en la instalación de módulos ni en la configuración.
Incluye todas las capacidades de nginx 1.27.5 y una serie de nuevas características.
Construimos paquetes binarios para una variedad de sistemas y arquitecturas, así como imágenes Docker. El código fuente está abierto en nuestros repositorios públicos bajo una licencia tipo BSD.
Además, una versión comercial con características adicionales se comercializa como Angie PRO.
Una selección de paquetes Angie prefabricados, imágenes Docker y opciones de compilación de código fuente.
Control de inicio y tiempo de ejecución; configuración, módulos, directivas y variables.
Resolución de problemas técnicos con Angie, rutas de retroalimentación disponibles.
Información para desarrolladores que quieren contribuir al proyecto.
Versión Actual#
Angie 1.10.2 y Angie PRO 1.10.2 fueron lanzadas el 21 de agosto de 2025. Las nuevas versiones aparecen trimestralmente; entre medias, publicamos correcciones urgentes y actualizaciones importantes.
Consulta también el historial completo de versiones para Angie y Angie PRO.
Características#
Ventajas principales sobre nginx, disponibles en la versión gratuita de código abierto de Angie:
Soporte de HTTP/3 para conexiones de clientes, así como para conexiones al servidor proxy, con la capacidad de usar independientemente diferentes versiones de protocolo (HTTP/1.x, HTTP/2, HTTP/3) en lados opuestos.
HTTPS automático proporciona certificados TLS mediante el soporte integrado del protocolo ACME.
Simplificación de la configuración: la directiva
location
puede definir varias expresiones coincidentes a la vez, lo que permite combinar bloques con configuraciones compartidas.Exposición de información básica sobre el servidor web, su configuración, así como métricas de servidores proxy, conexiones de clientes, zonas de memoria compartida y muchas otras cosas a través de una interfaz RESTful API en formato JSON.
Exportación de estadísticas en formato Prometheus con plantillas personalizables.
Monitorización del servidor a través del navegador con la herramienta de monitorización visual Console Light. Ver la demo en línea: https://console.angie.software/
Actualización dinámica de grupos upstream basada en eventos y etiquetas de contenedores Docker (o herramientas similares como Podman) sin necesidad de recargar el servidor.
Volcado de la zona de memoria compartida en proxy_cache_path al disco preserva el contenido del índice de caché entre reinicios y actualizaciones, lo que elimina el retraso de carga de la caché y pone el servidor en línea aún más rápido.
Modo de vinculación de sesión, que dirige todas las solicitudes dentro de una sesión al mismo servidor proxy.
Reinicialización suave de servidores upstream después de un fallo utilizando la opción
slow_start
de la directiva server.Limitación de la tasa de transferencia de archivos MP4 proporcionalmente a su tasa de bits, reduciendo así la carga de ancho de banda.
Ampliación de las capacidades de autorización y balanceo para el protocolo MQTT con la directiva mqtt_preread bajo
stream
.Información para decisiones de balanceo con cookies de sesión del protocolo RDP a través de la directiva rdp_preread bajo
stream
.Soporte del lado del servidor y del lado del cliente para NTLS cuando se utiliza la biblioteca TLS TongSuo, habilitado en tiempo de compilación Funciones y dependencias.
Paquetes binarios precompilados para muchos módulos populares de terceros.
Angie PRO añade lo siguiente a las características disponibles públicamente:
Gestión de servidores proxy a través de una configuración dinámica RESTful API; la consola de monitorización visual Console Light también puede utilizarse para gestionar el servidor desde su navegador.
Comprobación proactiva del estado de los servidores proxy mediante el envío periódico de solicitudes de sondeo.
Balanceo de carga basado en el tiempo medio de respuesta de los servidores proxy con factor de suavizado personalizable.
Balanceo de carga basado en retroalimentación que selecciona los servidores según el valor de una variable; supuestamente, proviene de los propios servidores, informando sobre su carga de CPU u otras métricas.
Cola de espera para solicitudes, configurada mediante la directiva queue en el bloque
upstream
.Modo de vinculación adicional sticky learn, que permite la detección y almacenamiento de sesiones de clientes en memoria compartida o almacenamiento externo, lo que permite unir múltiples balanceadores en un clúster.
El uso de la directiva backup_switch en el bloque
upstream
del módulo HTTP permite que los servidores de respaldo continúen atendiendo solicitudes cuando los servidores primarios vuelven a estar accesibles.Vinculación condicional de conexiones de cliente a la conexión del servidor proxy, que también permite el proxy de NTLM.
Fragmentación de caché en el módulo de proxy, que permite distribuirla entre ubicaciones dependiendo de las propiedades de la respuesta.
La firma del servidor en las páginas de error y en el campo de cabecera
Server
puede ocultarse o sobrescribirse con la directiva server_tokens.