<?xml version="1.0" encoding="UTF-8"?>

<rss version=".92">
 <channel>
	<title>Post of group blogs "Личные блоги ES1" (www.securitylab.lat)</title>
	<link>http://www.securitylab.lat</link>
	<guid>http://www.securitylab.lat</guid>
	<language>en</language>
	<docs>http://backend.userland.com/rss092</docs>

    <item>
      <title>Техно Леди: La verdad sobre Yandex ID: qué sabe Yandex sobre usted y cómo controlar esa información</title>
      <description><![CDATA[<p>
	 Yandex ID funciona como llave universal para acceder a los servicios de Yandex: Correo, Yandex Disk, Mapas, Música, Plus, Market, Documentos y otros productos. Es cómodo, porque no es necesario crear un perfil separado para cada servicio. Pero junto con la comodidad surge una pregunta obvia: ¿qué datos se recopilan en torno a una cuenta y dónde consultarlos? Y, en general, ¿qué tan segura es esta historia?
</p>
<h2>Qué vincula Yandex ID en una cuenta</h2>
<p>
 <a href="https://yandex.ru/support/id/ru/">Yandex ID</a> almacena los datos necesarios para el acceso y el funcionamiento de los servicios: nombre, teléfono, direcciones de correo adicionales, métodos de recuperación, dispositivos, suscripciones y parte de la información de pago. Si usa varios servicios de Yandex, los datos de esos servicios pueden vincularse a un solo perfil.
</p>
<p style="text-align: center;">
</p>
<p>
	 Parte de la información la proporciona el propio usuario. Por ejemplo: nombre, número de teléfono, fecha de nacimiento, direcciones de entrega o tarjeta bancaria. Otra parte aparece durante el uso de los servicios: historial de accesos, acciones en las aplicaciones, archivos en el Disk, correos en el correo, viajes, compras, lugares favoritos, búsquedas y configuraciones.
</p>
<p>
	 También hay datos técnicos: dirección IP, cookies, información del dispositivo, navegador, hora de acceso y ubicación aproximada. Estos datos no sirven solo para publicidad. Con ellos el servicio puede detectar que un inicio de sesión parece sospechoso, y el usuario puede comprobar si alguien entró en la cuenta desde un dispositivo ajeno.
</p>
<p>
	 La buena noticia es que parte de la información se puede ver y descargar. La mala noticia también existe: los datos están dispersos entre los servicios, por lo que no habrá un botón único de «muéstrenme todo sobre mí» en una tabla bonita. Habrá que recorrer varias secciones.
</p>
<h2>Dónde ver los datos y descargar el archivo</h2>
<p>
	 Es mejor empezar por la pestaña «Datos» en Yandex ID. Allí están los datos personales y la sección «Gestión de datos». Desde ahí se puede abrir la página <a href="https://yandex.ru/support/id/ru/data">«Datos en los servicios»</a> y ver qué servicios guardan información sobre su cuenta.
</p>
<p>
	 Si necesita obtener una copia de los datos, seleccione el servicio y haga clic en «Solicitar archivo con los datos». Normalmente el archivo se prepara en un plazo de 24 horas, pero a veces el plazo puede llegar a 30 días. Cuando el archivo esté listo, aparecerá en la sección «Lista de archivos solicitados». Allí también estará la contraseña para descomprimir.
</p>
<p>
	 Los archivos dentro del archivo pueden estar en formatos XML, JSON o CSV. No es la forma más amigable para el usuario común, pero esos archivos se pueden abrir en un ordenador y, si se desea, procesar en una hoja de cálculo. El sentido práctico es sencillo: ve los datos exportados de un servicio concreto en lugar de un resumen de la configuración.
</p>
<p>
	 En esa misma sección se pueden eliminar parte de los datos. Para ello debe seleccionar el servicio, marcar la información que quiere y pulsar «Eliminar». Pero es mejor descargar el archivo antes y entender qué va a borrar. A veces los datos son necesarios para el historial de pedidos, viajes, reclamaciones, documentos o para la recuperación de información.
</p>
<h2>Qué comprobar en primer lugar</h2>
<table>
<thead>
<tr>
	<th>
		 Qué verificar
	</th>
	<th>
		 Dónde buscar
	</th>
	<th>
		 Qué hacer
	</th>
</tr>
</thead>
<tbody>
<tr>
	<td>
		 Teléfono y correo para recuperación
	</td>
	<td>
		 «Seguridad»
	</td>
	<td>
		 Eliminar contactos antiguos y dejar solo los accesibles.
	</td>
</tr>
<tr>
	<td>
		 Historial de accesos
	</td>
	<td>
		 «Seguridad» y «Actividad»
	</td>
	<td>
		 Comprobar ciudades, dispositivos y navegadores de los últimos meses.
	</td>
</tr>
<tr>
	<td>
		 Dispositivos
	</td>
	<td>
		 «Seguridad» y «Dispositivos»
	</td>
	<td>
		 Cerrar sesión en teléfonos antiguos, en ordenadores ajenos y en navegadores olvidados.
	</td>
</tr>
<tr>
	<td>
		 Datos de los servicios
	</td>
	<td>
		 «Datos» y «Datos en los servicios»
	</td>
	<td>
		 Descargar el archivo o eliminar datos innecesarios por servicio.
	</td>
</tr>
<tr>
	<td>
		 Publicidad
	</td>
	<td>
		 yandex.ru/tune/adv
	</td>
	<td>
		 Desactivar el registro de intereses si no desea la personalización de anuncios.
	</td>
</tr>
<tr>
	<td>
		 Mapas y pagos
	</td>
	<td>
		 Sección de tarjetas bancarias en Yandex ID
	</td>
	<td>
		 Desvincular tarjetas antiguas o sobrantes.
	</td>
</tr>
</tbody>
</table>
<p>
	 Esta comprobación no lleva mucho tiempo, pero reduce de inmediato los riesgos más desagradables. Es especialmente útil empezar por «Seguridad»: si en la cuenta hay una sesión ajena o un número de teléfono antiguo, las opciones de privacidad ya no son tan relevantes.
</p>
<p style="text-align: center;">
</p>
<h2>Cómo comprobar la seguridad de la cuenta</h2>
<p>
	 Abra la pestaña «Seguridad» y consulte la sección «Actividad». Yandex muestra desde dónde y con qué dispositivos se ha accedido a la cuenta durante los últimos seis meses. Si en la lista hay una ciudad, navegador o teléfono desconocido, abra el evento y pulse «No soy yo».
</p>
<p>
	 Después verifique «Dispositivos». Si ahí queda un smartphone antiguo, el ordenador del trabajo anterior o un navegador que ya no usa, es mejor finalizar esas sesiones. En caso de duda puede pulsar «Cerrar sesión en todas partes» y luego iniciar sesión solo en sus dispositivos.
</p>
<p>
	 El siguiente punto son los «Métodos de recuperación». Debe haber un número de teléfono y un correo actualizados a los que tenga acceso. Un número antiguo es peligroso no solo porque no recibirá el código. Si el número ya pertenece a otra persona, la recuperación de la cuenta puede convertirse en un problema.
</p>
<p>
	 Para mayor protección puede activar el inicio de sesión con confirmación. En Yandex ID existe la opción «Contraseña + SMS», así como el inicio de sesión con Yandex ID (clave). Esto añade un paso extra al entrar y reduce el riesgo de que la cuenta se pierda solo por una contraseña robada.
</p>
<h2>Cómo limitar la publicidad y la personalización</h2>
<p>
	 Conviene revisar por separado la configuración de anuncios. Yandex puede tener en cuenta los intereses del usuario al mostrar publicidad. Eso no significa que la publicidad desaparezca al desactivar la opción. Simplemente el servicio se basará menos en el perfil de intereses.
</p>
<p>
	 Para desactivarla abra la página <a href="https://yandex.ru/tune/adv">yandex.ru/tune/adv</a>, apague «Tener en cuenta mis intereses» y pulse «Guardar». En dispositivos móviles Yandex describe por separado la configuración a través de la app de Yandex o del navegador Yandex.
</p>
<p>
	 Es importante no esperar milagros de este botón. No elimina la cuenta, no borra el historial de los servicios ni impide que los sitios muestren anuncios. Es solo una configuración de personalización. Si desea más privacidad, revise además las cookies del navegador, los permisos de las aplicaciones, la geolocalización y el acceso a las notificaciones.
</p>
<h2>Qué se puede eliminar sin entrar en pánico</h2>
<p>
	 Es mejor eliminar datos por etapas. Primero compruebe qué se guarda en los servicios concretos, descargue el archivo si hace falta y luego elimine lo que sobra. No pulse todas las opciones de golpe: junto con el historial innecesario puede borrar datos útiles.
</p>
<p>
	 Para una limpieza suave sirven acciones simples: quitar direcciones antiguas, desvincular tarjetas no usadas, cerrar sesiones antiguas, desactivar suscripciones innecesarias, revisar los datos en los servicios y desactivar el registro de intereses para la publicidad. En la mayoría de los casos eso es suficiente para sentirse más seguro.
</p>
<p>
	 Si necesita eliminar la cuenta por completo, abra la pestaña «Datos», desplácese hasta abajo y pulse «Eliminar cuenta». Antes conviene descargar archivos importantes del Disk, revisar el correo, guardar documentos, gestionar suscripciones, pagos y organizaciones si están vinculadas a la cuenta.
</p>
<p>
	 Eliminar la cuenta de inmediato no siempre es posible. Yandex puede pedir primero realizar acciones adicionales: por ejemplo, cerrar una cuenta en Yandex Bank, resolver asuntos con el grupo familiar o reasignar el propietario de una organización. Por eso es mejor no dejar la eliminación para el último día antes de cambiar de cuenta.
</p>
<h2>Preguntas frecuentes</h2>
 <details> <summary>¿Se puede saber qué almacena Yandex sobre mi cuenta?</summary>
<p>
	 Sí. En la sección «Datos en los servicios» puede elegir un servicio y solicitar un archivo. En él estarán los datos disponibles para exportación según su Yandex ID.
</p>
 </details> <details> <summary>¿El archivo de datos llega de inmediato?</summary>
<p>
	 No siempre. Normalmente el archivo se prepara en un plazo de 24 horas, pero a veces puede tardar hasta 30 días. El archivo listo aparece en la sección «Lista de archivos solicitados».
</p>
 </details> <details> <summary>¿Desactivar «Tener en cuenta mis intereses» quita la publicidad?</summary>
<p>
	 No. La publicidad permanecerá, pero Yandex debería tener menos en cuenta sus intereses al mostrarla.
</p>
 </details> <details> <summary>¿Qué hacer si en el historial de accesos hay un dispositivo ajeno?</summary>
<p>
	 Abra el evento en la sección «Actividad» y pulse «No soy yo». Después conviene cambiar la contraseña, revisar los métodos de recuperación y finalizar las sesiones sobrantes.
</p>
 </details> <details> <summary>¿Se puede eliminar parte de los datos sin borrar la cuenta?</summary>
<p>
	 Sí. En la sección «Datos en los servicios» se pueden borrar datos de servicios individuales. Antes de eliminar es mejor descargar el archivo y verificar que no se perderá algo necesario.
</p>
 </details><br /><a href="http://www.securitylab.lat/blog//TechnoladyES/360577.php">More...</a>]]></description>
      <link>http://www.securitylab.lat/blog//TechnoladyES/360577.php</link>
    </item>

    <item>
      <title>Комнатный Блогер: Docker para principiantes: qué son los contenedores y por qué importan</title>
      <description><![CDATA[<p>
	 Docker es una plataforma que ayuda a empaquetar una aplicación junto con sus dependencias, configuraciones y entorno de ejecución. El equipo obtiene una imagen y la ejecuta en el portátil del desarrollador, en un servidor de pruebas o en un servidor de producción casi de la misma forma. El principal beneficio de Docker es sencillo: menos configuración manual, menos discusiones «a mí me funciona» y un inicio más rápido del proyecto en una máquina nueva.
</p>
<p>
	 Un contenedor no es lo mismo que una máquina virtual. La máquina virtual levanta un sistema operativo invitado independiente, mientras que el contenedor usa el núcleo del sistema anfitrión y separa procesos, archivos, red y variables de entorno. Por eso el contenedor suele arrancar más rápido, consumir menos recursos y ser adecuado para desarrollo local, pruebas, canal de integración y aplicaciones de servidor.
</p>
<h2>Qué es Docker y cómo funcionan los contenedores</h2>
<p>
</p>
<p>
	 En Docker hay varios conceptos básicos. Imagen: plantilla de la aplicación. Contenedor: instancia en ejecución de una imagen. Dockerfile: archivo de texto con comandos para construir una imagen. Registro de imágenes: almacenamiento desde el que el equipo descarga imágenes y al que envía sus compilaciones. Docker Engine ejecuta contenedores, gestiona la red, los volúmenes, las imágenes y el ciclo de vida de las aplicaciones.
</p>
<p>
	 El ejemplo es así. El equipo escribe una aplicación web, añade un archivo de dependencias, el código fuente, variables de entorno y un Dockerfile. Docker construye la imagen. El desarrollador ejecuta el contenedor localmente, el tester levanta el mismo contenedor en el entorno de pruebas, el administrador envía la misma imagen al servidor de producción. El equipo traslada no solo el código, sino el entorno descrito previamente.
</p>
<p>
	 La imagen Docker se construye en capas. Cada paso en el Dockerfile añade una nueva capa, y la reutilización de capas acelera la compilación y la descarga. Este enfoque es cómodo, pero exige orden. Contraseñas, tokens y claves no deben incluirse en la imagen: en repositorios públicos se encuentran regularmente miles de secretos olvidados. Es mejor eliminar archivos temporales en la etapa de compilación. Las imágenes base deben actualizarse. Las dependencias deben fijarse. De lo contrario, dentro del contenedor aparecen rápidamente bibliotecas vulnerables, paquetes innecesarios y secretos olvidados.
</p>
<p>
	 Los datos del contenedor por defecto no duran mucho. Si se elimina el contenedor, su capa mutable también desaparecerá. Para bases de datos, archivos de usuarios, colas de tareas y cachés se usan volúmenes. Un volumen guarda los datos por separado del contenedor, por lo que se puede eliminar y recrear el contenedor sin perder el contenido. Montar una carpeta del anfitrión en el contenedor es cómodo para desarrollo, pero en un servidor de producción requiere permisos cuidados.
</p>
<p>
	 Los contenedores ofrecen aislamiento, pero no convierten la aplicación en una caja fuerte. El proceso dentro del contenedor sigue ejecutándose en el anfitrión y depende de permisos, configuración de red, directorios montados y restricciones de seguridad. Si se inicia un contenedor con permisos excesivos, se montan carpetas sensibles del anfitrión o se utiliza una imagen cualquiera descargada de internet, Docker puede convertirse en una fuente de riesgo.
</p>
<h2>Por qué se necesitan los contenedores en desarrollo y en el servidor</h2>
<p>
</p>
<p>
	 Docker es especialmente útil en proyectos donde la aplicación depende de varios servicios. Un stack típico incluye servidor web, base de datos, Redis, cola de tareas y procesos de trabajo para tareas en segundo plano. Sin contenedores, el desarrollador instala manualmente las versiones necesarias, resuelve conflictos de puertos y busca diferencias entre Windows, Linux y macOS. Con contenedores el equipo describe los servicios en Docker Compose y levanta el entorno con un solo comando.
</p>
<p>
	 Docker Compose no sustituye al Dockerfile. Dockerfile describe cómo construir la imagen. Docker Compose ayuda a ejecutar varios contenedores relacionados: abrir puertos, pasar variables de entorno, montar volúmenes y agrupar servicios en una red común. Para desarrollo local, Compose suele ser más cómodo que una serie larga de comandos docker run, porque todas las configuraciones están en un archivo junto al proyecto.
</p>
<table>
<thead>
<tr>
	<th>
		 Tarea
	</th>
	<th>
		 Cómo ayuda Docker
	</th>
	<th>
		 Dónde existe riesgo
	</th>
</tr>
</thead>
<tbody>
<tr>
	<td>
		 Desarrollo local
	</td>
	<td>
		 Levanta un entorno idéntico para todo el equipo
	</td>
	<td>
		 En Windows y macOS el trabajo con archivos mediante carpetas del anfitrión puede ralentizarse
	</td>
</tr>
<tr>
	<td>
		 Pruebas
	</td>
	<td>
		 Crea rápidamente una base limpia, caché, cola y servicios dependientes
	</td>
	<td>
		 Los contenedores no arreglan pruebas deficientes ni datos de prueba pobres
	</td>
</tr>
<tr>
	<td>
		 Entrega de la aplicación
	</td>
	<td>
		 Traslada la misma imagen entre entornos
	</td>
	<td>
		 La etiqueta latest sin control puede conducir fácilmente a un lanzamiento impredecible
	</td>
</tr>
<tr>
	<td>
		 Servidor de producción
	</td>
	<td>
		 Simplifica reinicios, actualizaciones y reversión de servicios
	</td>
	<td>
		 Son necesarios registros, copias de seguridad, límites de recursos y un plan de reversión
	</td>
</tr>
</tbody>
</table>
<p>
	 Docker encaja bien en el canal de compilación y lanzamiento. El sistema construye la imagen, ejecuta las pruebas, comprueba vulnerabilidades, firma el artefacto y envía la imagen al registro. El servidor recibe no un conjunto de archivos, scripts e instrucciones orales, sino un artefacto listo con una versión clara. El equipo hace menos tareas manuales y revierte más rápido un lanzamiento fallido.
</p>
<p>
	 Los contenedores suelen asociarse a servicios pequeños e independientes, pero Docker también es útil para una aplicación monolítica grande. Un monolito en contenedor es más fácil de ejecutar en un entorno de pruebas, mover entre servidores y conectar a dependencias. La contenedorización no arregla una mala arquitectura, pero hace el entorno más predecible. Si la aplicación escribe estado en una carpeta local, guarda registros solo en archivos y requiere modificaciones manuales en el servidor, conviene primero corregir la aplicación.
</p>
<p>
	 El mito sobre Docker es: «metemos la aplicación en un contenedor y los problemas desaparecen». En la práctica, Docker resuelve problemas de entorno, pero no sustituye la administración. El equipo sigue necesitando actualizaciones de las imágenes base, la comprobación de dependencias, limitación de permisos, configuración de redes, límites de CPU y memoria, recolección de registros, copias de seguridad de volúmenes y un plan de reversión.
</p>
<blockquote>
	 No ejecute imágenes de terceros con permisos elevados, no exponga el socket de Docker al contenedor sin necesidad, no almacene contraseñas ni tokens en Dockerfile. Al trabajar con infraestructura, redes y sistemas ajenos, cumpla la legislación de la Federación Rusa, las reglas internas de la organización y los principios de conducta responsable.
</blockquote>
<h2>FAQ: preguntas frecuentes sobre Docker y contenedores</h2>
 <details> <summary>¿En qué se diferencia Docker de una máquina virtual?</summary>
<p>
	 La máquina virtual ejecuta un sistema operativo independiente. El contenedor utiliza el núcleo del sistema anfitrión y separa la aplicación del resto del entorno. Por eso el contenedor suele ser más ligero, arranca antes y es más adecuado para empaquetar aplicaciones. Se eligen máquinas virtuales cuando se necesita el aislamiento total de distintos sistemas operativos o una frontera estricta entre entornos.
</p>
 </details> <details> <summary>¿Se puede ejecutar una base de datos en Docker?</summary>
<p>
	 Para desarrollo es casi imprescindible: PostgreSQL, MySQL o Redis se pueden levantar en minutos, reiniciar datos rápidamente y repetir pruebas. En producción, solo si el equipo sabe preparar replicación, copias de seguridad, restauración, actualizaciones y monitorización del estado de la base. Un solo contenedor con una base y sin un plan de recuperación comprobado no es arquitectura, es una futura avería.
</p>
 </details> <details> <summary>¿Qué es una imagen Docker y por qué no debe confundirse con un contenedor?</summary>
<p>
	 La imagen es una plantilla con la aplicación, dependencias y comandos de arranque. El contenedor es el proceso en ejecución basado en la imagen. De una imagen se pueden lanzar muchos contenedores: por ejemplo, uno para el servicio web, otro para comprobar migraciones y otro para pruebas.
</p>
 </details> <details> <summary>¿Para qué sirve Docker Compose?</summary>
<p>
	 Docker Compose ayuda a describir varios servicios relacionados en un mismo archivo. Por ejemplo, se puede levantar la aplicación, PostgreSQL, Redis y un proceso en segundo plano con un solo comando, conectarlos a una red común y pasar a cada servicio las variables de entorno necesarias. Para un nuevo integrante del equipo, ese archivo suele reemplazar una larga instrucción de configuración manual.
</p>
 </details> <details> <summary>¿Necesita Docker un usuario común?</summary>
<p>
	 Para un usuario habitual, Docker en la mayoría de los casos no es necesario. La herramienta es más útil para desarrolladores, administradores, testers y especialistas en seguridad. En un servidor doméstico Docker también es conveniente, siempre que el responsable comprenda redes, volúmenes, permisos, copias de seguridad y actualizaciones.
</p>
 </details>
<p>
	 Conclusión práctica: Docker no es una moda, sino una herramienta para entornos reproducibles. Los contenedores ayudan a empaquetar la aplicación con sus dependencias, levantar rápidamente los servicios necesarios, simplificar pruebas y la entrega al servidor. Pero Docker no sustituye la arquitectura, la seguridad ni la disciplina operativa. Empiece por lo básico: escriba un Dockerfile, levante el proyecto con Docker Compose, externalice los datos en volúmenes, restrinja los permisos de los contenedores y actualice regularmente las imágenes base.
</p><br /><a href="http://www.securitylab.lat/blog//paragraphES/360572.php">More...</a>]]></description>
      <link>http://www.securitylab.lat/blog//paragraphES/360572.php</link>
    </item>

    <item>
      <title>Room Bloger: Switch o router: diferencias y cuál elegir para el hogar y la oficina</title>
      <description><![CDATA[<p>
	 El conmutador, o switch, conecta dispositivos dentro de una misma red local: ordenadores, servidores, cámaras IP, impresoras, NAS, televisores, consolas de videojuegos y puntos de acceso Wi‑Fi. Recibe un marco Ethernet en un puerto, comprueba dónde está el destinatario y reenvía los datos. No a todos por igual, como un hub antiguo, sino exactamente adonde hace falta.
</p>
<p>
	 El router sirve para otra función: conecta redes distintas. Por ejemplo, la red doméstica con Internet, VLAN de oficina entre sí o una sucursal con la sede central. Por eso la elección básica es bastante simple. ¿Se han agotado los puertos LAN y quieres conectar más dispositivos por cable? Elige un conmutador. ¿Hay que sacar la red a Internet, configurar VPN, NAT, DHCP o rutas entre subredes? Entonces hace falta un router.
</p>
<p>
	 Gran parte de la confusión proviene de los routers Wi-Fi domésticos.&nbsp;La caja del proveedor suele combinar el enrutador, el punto de acceso Wi‑Fi, un pequeño conmutador con varios puertos LAN, servidor DHCP, NAT y un cortafuegos básico. El usuario ve un solo aparato y piensa razonablemente: «el router lo hace todo». A primera vista, así es. Pero dentro de la misma caja funcionan distintos roles de red.
</p>
<h2>Qué es un conmutador de red y cómo funciona el switch</h2>
<p>
</p>
<p>
	 Es cómodo comparar el conmutador con el cartero de un edificio de apartamentos. El cartero conoce los números de los apartamentos y coloca la carta en el buzón correspondiente. En la red, ese «número de apartamento» lo desempeña la dirección MAC de la tarjeta de red. Un hub se comportaría de forma más burda: simplemente gritaría el mensaje por todo el portal y el destinatario tendría que responder. Por eso los hubs quedaron obsoletos y los conmutadores se convirtieron en la base habitual de la red por cable.
</p>
<p>
	 Un switch típico opera en la capa de enlace del modelo OSI y se basa en direcciones MAC. Cuando un dispositivo envía datos, el conmutador recuerda la dirección MAC del remitente y el puerto al que está conectado el cable. Así aparece la tabla de direcciones MAC. Si la dirección del destinatario ya está en la tabla, el marco sale directamente al puerto correspondiente. Si la dirección aún es desconocida, el conmutador envía temporalmente el marco de forma más amplia y, tras la respuesta, ajusta su tabla. Nada mágico, pero funciona rápido.
</p>
<p>
	 En casa el conmutador ayuda cuando es necesario conectar más dispositivos por cable al router. Un ejemplo típico:&nbsp;el router está en el recibidor, y en una habitación un cable llega a un pequeño switch al que están conectados el PC, el televisor, la consola de juegos y el almacenamiento en red. Para una configuración de juegos el cable suele ser preferible al Wi‑Fi: la latencia es menor, la velocidad cae con menos frecuencia y la conexión con el servidor o el NAS local es más estable.
</p>
<p>
	 En el hogar inteligente el conmutador ayuda a reunir cámaras IP, grabador de vídeo, controladores, puntos de acceso y paneles de control. Si los dispositivos soportan PoE, un cable Ethernet transmite tanto datos como alimentación. Según Microchip, los estándares IEEE 802.3af, 802.3at y 802.3bt establecen distintos niveles de potencia PoE para cámaras, puntos de acceso y teléfonos VoIP. Es notable que al elegir un conmutador PoE no basta con mirar el número de puertos: hay que considerar el presupuesto total de alimentación, de lo contrario parte de los dispositivos se reiniciará o directamente no encenderá.
</p>
<p>
	 Los conmutadores pueden ser no gestionables y gestionables. La opción no gestionable sirve para la tarea de «añadir puertos»: enchufas la alimentación, conectas los cables y la red funciona. Un switch gestionable se necesita cuando hay que dividir la red en VLAN, ver estadísticas de los puertos, activar QoS, configurar el espejado de tráfico o protegerse de bucles de red mediante STP. Un poco más complejo de configurar, pero mucho más útil en una oficina.
</p>
<h2>En qué se diferencia un conmutador de un router</h2>
<p>
</p>
<p>
	 El conmutador conecta dispositivos y crea una red, y el router conecta redes entre sí. Cloudflare lo formula de forma parecida: el switch reenvía datos entre dispositivos y el router dirige datos entre redes. Para la práctica esa separación suele ser suficiente.
</p>
<table>
<thead>
<tr>
	<th>
		 Criterio
	</th>
	<th>
		 Conmutador
	</th>
	<th>
		 Router
	</th>
</tr>
</thead>
<tbody>
<tr>
	<td>
		 Función principal
	</td>
	<td>
		 Conecta dispositivos dentro de la red local
	</td>
	<td>
		 Conecta redes distintas entre sí
	</td>
</tr>
<tr>
	<td>
		 Direcciones
	</td>
	<td>
		 Normalmente trabaja con direcciones MAC
	</td>
	<td>
		 Trabaja con direcciones IP y rutas
	</td>
</tr>
<tr>
	<td>
		 Ejemplo doméstico
	</td>
	<td>
		 Añade puertos LAN para PC, NAS, TV, consolas y cámaras
	</td>
	<td>
		 Conecta el domicilio a Internet del proveedor
	</td>
</tr>
<tr>
	<td>
		 Ejemplo de oficina
	</td>
	<td>
		 Reúne puestos de trabajo, puntos de acceso, telefonía y cámaras
	</td>
	<td>
		 Vincula la oficina con Internet, sucursales, VPN y otras subredes
	</td>
</tr>
<tr>
	<td>
		 Funciones típicas
	</td>
	<td>
		 VLAN, PoE, QoS, agregación de puertos, monitorización
	</td>
	<td>
		 NAT, DHCP, VPN, cortafuegos, enrutamiento
	</td>
</tr>
<tr>
	<td>
		 ¿Se puede sustituir por el otro dispositivo?
	</td>
	<td>
		 Normalmente no reemplaza al router
	</td>
	<td>
		 El router doméstico a menudo ya contiene un pequeño switch
	</td>
</tr>
</tbody>
</table>
<p>
	 Hay excepciones, por supuesto. Un conmutador L3 puede enrutar tráfico entre VLAN y subredes. Un router corporativo puede tener un conmutador integrado. El router Wi‑Fi doméstico casi siempre contiene varios puertos LAN, es decir, un pequeño switch dentro de la carcasa. Pero los dispositivos mixtos no rompen la lógica básica: el switching se encarga del intercambio dentro del segmento, el routing conecta segmentos.
</p>
<blockquote>
	 Si se necesitan más conexiones por cable en una red ya operativa, elige un conmutador. Si hace falta conectar la red a Internet, separar subredes o configurar VPN, elige un router o un cortafuegos.
</blockquote>
<h2>Cómo elegir un conmutador para casa, oficina, cámaras y juegos</h2>
<p>
	 Para un piso suele bastar un conmutador no gestionable gigabit de 5 u 8 puertos. La reserva de puertos se amortiza rápido: hoy necesitas PC, televisor y consola; mañana aparecerán NAS, cámara, portátil de trabajo o un punto de acceso Wi‑Fi adicional. Un modelo de 100 Mbps tiene sentido solo para tareas muy sencillas donde la velocidad casi no importa.
</p>
<p>
	 Para una configuración de juego, un servidor doméstico y un NAS mira no solo la velocidad del puerto, sino toda la cadena. Un conmutador 2,5G o 10G no acelerará la transferencia de archivos si la tarjeta de red del equipo, el puerto del almacenamiento o el cable solo soportan 1 Gbit/s. Para grandes copias de seguridad, edición de vídeo desde el NAS e intercambio de archivos pesados, un switch rápido es útil. Pero solo con equipos compatibles.
</p>
<p>
	 Para el hogar inteligente y la videovigilancia PoE es útil. Las cámaras, puntos de acceso y teléfonos VoIP reciben alimentación por el mismo cable que los datos. Antes de comprar, suma el consumo de todos los dispositivos y añade margen. Por ejemplo, ocho cámaras de 8 W necesitarán como mínimo 64 W sin contar pérdidas ni ampliaciones futuras. Un conmutador con presupuesto PoE de 55 W resulta insuficiente. Funcionará en el límite, y eso es una mala idea.
</p>
<p>
	 Para la oficina es mejor escoger un conmutador gestionable. VLAN separará el Wi‑Fi de invitados de los equipos de trabajo, las cámaras de la contabilidad, y los bancos de pruebas de los servidores. La monitorización mostrará puertos sobrecargados y errores de línea. El espejado de puerto ayudará a entender por qué una aplicación va lenta o hacia dónde va el tráfico sospechoso. Sin esas funciones la red de la oficina pronto se convierte en una caja negra.
</p>
<p>
	 Comprueba aparte la protección contra bucles. Dos puertos conectados por error o una mala interconexión de&nbsp;varios switches pueden tumbar la red con una tormenta de broadcast. En los modelos gestionables el problema lo contienen STP y mecanismos similares. En los modelos domésticos sencillos puede que no exista tal protección, por lo que es mejor etiquetar los cables y mantener el esquema de conexiones al menos en una nota. Sí, suena aburrido. Luego salva.
</p>
<p>
	 No compres un conmutador en lugar de un cortafuegos. Incluso un switch gestionable con VLAN no reemplaza un filtrado adecuado en el perímetro de la red. Para casa la higiene mínima es: firmware del router actualizado, contraseña administrativa fuerte, acceso remoto desactivado si no se necesita, red Wi‑Fi de invitados separada. Para la oficina se añaden segmentación, control de puertos, registro y comprobación periódica de la configuración.
</p>
<p>
	 Fuentes para verificar términos y diferencias básicas: <a href="https://www.cisco.com/site/us/en/learn/topics/small-business/network-switch-vs-router.html">Cisco: Conmutador vs Router</a>, <a href="https://www.cloudflare.com/learning/network-layer/what-is-a-network-switch/">Cloudflare: Qué es un conmutador de red</a>, <a href="https://developerhelp.microchip.com/xwiki/bin/view/applications/ethernet/poe/standards/">Microchip: Resumen de estándares PoE</a>.
</p>
<h2>Preguntas frecuentes: dudas habituales sobre conmutadores</h2>
 <details> <summary>¿Se puede conectar un conmutador a un router?</summary>
<p>
	 Sí. Un cable va desde un puerto LAN del router al puerto del conmutador, y a los demás puertos del switch se conectan los dispositivos. El router sigue asignando direcciones IP, realizando NAT y proporcionando acceso a Internet.
</p>
 </details> <details> <summary>¿El conmutador acelerará Internet?</summary>
<p>
	 No directamente. El conmutador puede ofrecer una conexión por cable estable en lugar del Wi‑Fi saturado, pero la velocidad de Internet la limitan la tarifa del proveedor, el puerto del router, el cable y la carga de la red.
</p>
 </details> <details> <summary>¿Hace falta un conmutador gestionable en casa?</summary>
<p>
	 Para un piso normal suele bastar un modelo no gestionable. Un switch gestionable es necesario si quieres VLAN para cámaras, una red separada para el hogar inteligente, monitorización de puertos, priorización de tráfico o diagnóstico preciso.
</p>
 </details> <details> <summary>¿Se puede conectar el cable del proveedor directamente al conmutador?</summary>
<p>
	 En la mayoría de los casos no. Un conmutador normal no sustituye al router: no configura NAT, no asigna direcciones a los dispositivos domésticos ni realiza la autorización con el proveedor. El esquema habitual es: cable del proveedor al router, y luego el router al conmutador.
</p>
 </details> <details> <summary>¿Qué elegir para cámaras: un switch normal o PoE?</summary>
<p>
	 Si las cámaras se alimentan por Ethernet, hace falta un conmutador PoE o inyectores PoE. Para varias cámaras es más cómodo un PoE‑switch, pero antes de comprar comprueba el presupuesto total de alimentación y la potencia por puerto.
</p>
 </details>
<blockquote>
	 Conclusión práctica: para el hogar lo más habitual es la pareja «router más conmutador gigabit de 5–8 puertos». Para hogar inteligente y cámaras mira PoE y margen de potencia. Para oficina elige un switch gestionable con VLAN, monitorización y protección contra bucles. El conmutador amplía la red local y el router la conecta a Internet y otras subredes.
</blockquote>
 <br><br /><a href="http://www.securitylab.lat/blog//paragraphES/360563.php">More...</a>]]></description>
      <link>http://www.securitylab.lat/blog//paragraphES/360563.php</link>
    </item>

    <item>
      <title>Room Bloger: ZeroTier: una red virtual segura sin necesidad de un servidor dedicado</title>
      <description><![CDATA[<p>
	 ZeroTier conecta un portátil, un servidor doméstico, un teléfono, un NAS, un PC de oficina o una máquina en la nube en una única red virtual cerrada sin un VPS separado. Los dispositivos obtienen direcciones internas y se intercamban datos como si estuvieran en la misma red local. Con este esquema es cómodo trabajar con archivos, acceder al servidor, conectarse a un banco de pruebas y mantener paneles de administración alejados del internet público.
</p>
<p>
	 El enfoque de ZeroTier no es «una VPN sencilla por ser VPN», sino el acceso controlado a los datos. El NAS, SSH, RDP o un panel web interno no se exponen mediante reenvío de puertos en el router. Cada nodo primero entra en la red privada y el administrador decide manualmente qué nodos autorizar. Pero el cifrado no protege frente a una contraseña débil, firmware antiguo del NAS, un portátil infectado o cuentas olvidadas.
</p>
<h2>Cómo ZeroTier protege los datos y por qué funciona sin VPS</h2>
<p>
</p>
<p>
	 ZeroTier One crea en el dispositivo una interfaz de red virtual. Las aplicaciones se dirigen a los nodos remotos por direcciones IP internas y no por las direcciones externas del proveedor. En la <a href="https://docs.zerotier.com/protocol/">documentación del protocolo</a> ZeroTier describe la plataforma como un conmutador Ethernet virtual programable. En términos sencillos, ZeroTier opera en la capa L2, es decir, en la capa Ethernet.
</p>
<p>
	 La capa L2 aporta una ventaja práctica importante. Con ZeroTier&nbsp;se pueden conectar no solo servicios IP habituales como SSH, SMB o paneles web, sino también juegos antiguos, clientes corporativos obsoletos, software industrial específico y otras aplicaciones que necesitan una red «casi local». Una VPN L3 normal construye rutas entre subredes, mientras que ZeroTier se aproxima más a un conmutador virtual. A cambio de la comodidad a veces hay que pagar con menor velocidad y reglas de acceso más cuidadosas.
</p>
<p>
	 ZeroTier utiliza cifrado de extremo a extremo. En la sección <a href="https://docs.zerotier.com/security/">Seguridad de ZeroTier</a> la empresa explica que las claves privadas permanecen en los dispositivos finales y que la infraestructura del servicio no ve ni altera los paquetes de usuario. Este enfoque encaja bien con Zero Trust: no considerar la red segura por defecto, verificar los dispositivos, limitar el acceso y eliminar regularmente nodos innecesarios.
</p>
<p>
	 La comunicación entre dispositivos no siempre se establece de la misma manera. Primero ZeroTier intenta encontrar una ruta directa por UDP y «atravesar» el NAT. En la <a href="https://docs.zerotier.com/corporate-firewalls/">documentación sobre firewalls corporativos</a> ZeroTier compara ese proceso con el enfoque STUN/TURN en VoIP. Si el proveedor, el firewall corporativo o un NAT estricto bloquean UDP, el agente ZeroTier One recurre al <a href="https://docs.zerotier.com/relay/">TCP Relay</a>. Entonces el tráfico pasa por el servicio relay de ZeroTier y no directamente entre los dos dispositivos. Por eso el ping puede aumentar de forma inesperada hasta 150–200 ms y la velocidad de transferencia de archivos bajar.
</p>
<h2>Cómo configurar ZeroTier: preparación, cliente, autorización y verificación</h2>
<p>
</p>
<p>
 <strong>Preparación en Central.</strong> Abra ZeroTier Central, cree una red y asígnele un nombre claro: home-nas, lab-secure, office-admin o similar. Copie el Network ID. En la configuración seleccione Private, de modo que los nuevos dispositivos entren solo tras la autorización manual. Para el primer arranque deje la asignación de direcciones en automático. El rango estándar de Managed IP suele ser suficiente si no está construyendo rutas complejas.
</p>
<p>
 <strong>Instalar el cliente.</strong> Descargue ZeroTier One desde la página oficial <a href="https://www.zerotier.com/download/">Descargar ZeroTier</a> e instale el cliente en cada dispositivo de confianza. En Windows y macOS únase a la red desde el icono de ZeroTier en el área de notificaciones o la barra de menús: Join New Network y luego introducir el Network ID. En Linux o en un servidor sin entorno gráfico ejecute:
</p>
 <pre>
====code====
<pre>sudo zerotier-cli join NETWORK_ID</pre>
=============
</pre>
<p>
 <strong>Autorizar y comprobar.</strong> Vuelva a Central, localice el nuevo nodo y autorícelo. Asigne al dispositivo un nombre claro al instante: alex-laptop, home-nas, office-mini-pc o monitoring-node. Consulte la dirección Managed IP y compruebe el acceso por la dirección interna. Comience con 
====code====
<pre>ping MANAGED_IP</pre>
=============
 y luego verifique SSH, RDP, SMB o el panel web interno.
</p>
<p>
	 Si el dispositivo entró en la red pero el servicio no responde, compruebe cuatro cosas: que el nodo esté autorizado en Central, que se haya asignado la Managed IP, que el firewall local no esté bloqueando el puerto y que el servicio esté escuchando en la interfaz correcta. Un error frecuente es: ZeroTier funciona, el ping responde, pero el panel web está ligado solo a 127.0.0.1, por lo que otros dispositivos no lo ven.
</p>
<p>
	 Elimine los dispositivos antiguos de inmediato. Un portátil vendido, una máquina virtual de prueba, un teléfono antiguo o un contenedor temporal no deben conservar acceso a la red privada. Active la autenticación de dos factores para la cuenta de administrador. Para nodos importantes use cuentas distintas, claves SSH, contraseñas robustas y actualizaciones regulares.
</p>
<h2>Velocidad, rutas, firewall y elección entre ZeroTier, Tailscale y OpenVPN</h2>
<p>
	 No considere la red privada totalmente de confianza. Un portátil puede ver el NAS, pero no debería tener acceso automático a cámaras, impresoras y paneles de administración. Un portátil de trabajo puede comunicarse con un servidor de pruebas, pero no debe ver todos los dispositivos domésticos. El firewall debe proteger cada nodo importante: en el servidor permita SSH solo desde direcciones de la red ZeroTier, en el NAS abra solo los protocolos de archivos necesarios y en Windows limite RDP a direcciones internas concretas.
</p>
<p>
	 La enrutación hacia la red local física requiere precaución. Por ejemplo, ZeroTier se ejecuta en un miniservidor y, a través de él, se accede al NAS o a una impresora en la LAN doméstica. Entonces un nodo actuará como enrutador entre la red ZeroTier y la subred física. En Central se añade un Managed Route y en el nodo Linux se habilita el reenvío de IP. La guía oficial <a href="https://docs.zerotier.com/route-between-phys-and-virt/">Ruta entre ZeroTier y redes físicas</a> propone temporalmente el comando:
</p>
 <pre>
====code====
<pre>sudo sysctl -w net.ipv4.ip_forward=1</pre>
=============
</pre>
<p>
	 Tras un reinicio esa configuración desaparecerá. Para que Linux active el reenvío al arrancar, abra 
====code====
<pre>/etc/sysctl.conf</pre>
=============
 y añada o descomente la línea:
</p>
 <pre>
====code====
<pre>net.ipv4.ip_forward=1</pre>
=============
</pre>
<p>
	 A continuación aplique los ajustes con:
</p>
 <pre>
====code====
<pre>sudo sysctl -p</pre>
=============
</pre>
<p>
	 Una sola orden no hace la solución segura. Diseñe la ruta, especifique qué dispositivos de la red ZeroTier deben ver la LAN y bloquee el resto con el firewall. Un error en Managed Route o en NAT puede exponer más dispositivos de los previstos.
</p>
<table>
<thead>
<tr>
	<th>
		 Tecnología
	</th>
	<th>
		 Cuándo conviene
	</th>
	<th>
		 Inconveniente
	</th>
</tr>
</thead>
<tbody>
<tr>
	<td>
		 ZeroTier
	</td>
	<td>
		 Red L2, juegos antiguos, software específico, NAS, laboratorio doméstico, dispositivos detrás de NAT
	</td>
	<td>
		 Con TCP Relay aumenta la latencia, y las reglas de acceso deben limpiarse manualmente
	</td>
</tr>
<tr>
	<td>
		 Tailscale
	</td>
	<td>
		 Zero Trust para equipos, red mesh rápida sobre WireGuard, vinculación cómoda a usuarios y dispositivos
	</td>
	<td>
		 Por defecto funciona como red L3, por lo que no todos los escenarios L2 son adecuados sin soluciones adicionales
	</td>
</tr>
<tr>
	<td>
		 OpenVPN
	</td>
	<td>
		 Infraestructura VPN clásica, servidor propio, certificados habituales, soporte TUN y TAP
	</td>
	<td>
		 El modo L2 mediante TAP es más difícil de mantener, y el servidor se convierte en el punto central de carga
	</td>
</tr>
</tbody>
</table>
<p>
	 Compruebe los límites antes de un uso permanente. En una guía antigua <a href="https://docs.zerotier.com/start/">Crear tu primera red ZeroTier</a>&nbsp;se indica que el plan gratuito permite hasta 25 dispositivos en todas las redes, mientras que la página pública <a href="https://www.zerotier.com/pricing/">Precios</a> en abril de 2026 muestra para Personal Free 10 dispositivos y una red. Debido a la discrepancia entre páginas oficiales, verifique el límite real en su cuenta de ZeroTier Central.
</p>
<blockquote>
	 ZeroTier ayuda a conectar de forma segura dispositivos de confianza, pero no sustituye a las actualizaciones, contraseñas robustas, la autenticación de dos factores, las copias de seguridad ni el control de permisos. Use las redes virtuales solo para acceso legítimo a sus recursos o a recursos para los que tenga permiso. Al trabajar en Rusia tenga en cuenta la legislación de la Federación Rusa, los requisitos del empleador y las normas sobre el tratamiento de datos personales.
</blockquote>
<p>
 <strong>FAQ</strong>
</p>
 <details open=""> <summary>¿Se necesita una IP pública para ZeroTier?</summary>
<p>
	 Para el acceso habitual no es necesaria una IP pública. Los dispositivos pueden estar detrás de NAT. ZeroTier primero intenta una ruta UDP directa entre nodos y, si falla, puede pasar a TCP Relay. En modo Relay la latencia y la velocidad suelen ser peores.
</p>
 </details> <details> <summary>¿Por qué el ping subió hasta 200 ms?</summary>
<p>
	 Normalmente porque no se logró la ruta UDP directa y ZeroTier pasó el tráfico por TCP Relay. Eso ocurre en redes con NAT estricto, firewall corporativo o bloqueo de UDP. Revise las reglas del firewall, el tráfico UDP y la ruta física entre los nodos.
</p>
 </details> <details> <summary>¿Es seguro dar acceso al NAS a través de ZeroTier?</summary>
<p>
	 Sí, si la red está cerrada, los nuevos dispositivos requieren autorización manual, la cuenta de administrador tiene autenticación de dos factores, el NAS está actualizado y el firewall permite solo los servicios necesarios. No dé acceso a toda la red virtual a todos los servicios del NAS.
</p>
 </details> <details> <summary>¿Qué elegir: ZeroTier, Tailscale o OpenVPN?</summary>
<p>
	 ZeroTier es más práctico cuando se necesita L2 y una red «casi local». Tailscale se elige con frecuencia para acceso Zero Trust de usuarios y dispositivos sobre WireGuard. OpenVPN conviene cuando se requiere un esquema clásico con servidor propio, certificados y control total de la infraestructura.
</p>
 </details>
<p>
	 ZeroTier vale la pena cuando se necesita conectar de forma segura los propios dispositivos sin un servidor dedicado y sin exponer servicios abiertamente en internet. Empiece con una red privada, autorice solo nodos conocidos, active la autenticación de dos factores, cierre puertos innecesarios y elimine regularmente dispositivos antiguos. Si la red almacena datos importantes, configure el acceso según el principio Zero Trust: no confiar automáticamente en nadie, verificar cada nodo y conceder solo los permisos necesarios.
</p><br /><a href="http://www.securitylab.lat/blog//paragraphES/360540.php">More...</a>]]></description>
      <link>http://www.securitylab.lat/blog//paragraphES/360540.php</link>
    </item>

    <item>
      <title>Room Bloger: Metatron: asistente de IA local para pruebas de penetración en Parrot OS</title>
      <description><![CDATA[<p>
	 Metatron es una herramienta de línea de comandos&nbsp;para Linux que combina utilidades de reconocimiento, un modelo de lenguaje local y una base de datos MariaDB. El usuario indica una dirección IP o un dominio, el script ejecuta nmap, whois, whatweb, curl, dig y Nikto, recopila la salida de los comandos, transmite los datos al modelo local mediante Ollama y guarda el resultado en la base. Según el autor, esta combinación ayuda a analizar más rápido la superficie de ataque, identificar servicios sospechosos, describir posibles vulnerabilidades y preparar un informe.
</p>
<p>
	 La idea principal del proyecto no es un «autopentest mágico», sino la automatización local del análisis inicial. La herramienta no sustituye a un especialista, no demuestra por sí sola la existencia de una vulnerabilidad y no elimina la responsabilidad legal por escanear sistemas ajenos. Pero para un laboratorio, un entorno de práctica, una red doméstica o una revisión interna con permiso, el formato resulta práctico: los datos no salen a un servicio LLM en la nube, el historial de escaneos se almacena localmente y los informes se pueden exportar a PDF o HTML.
</p>
<h2>Cómo funciona el pentesting local con IA basado en Ollama y MariaDB</h2>
<p>
</p>
<p>
	 La arquitectura del proyecto es bastante directa. En el repositorio hay un archivo CLI principal, un módulo de base de datos, un módulo para ejecutar las herramientas, una interfaz con Ollama y un bloque para búsquedas con DuckDuckGo. El usuario elige el objetivo y el conjunto de comprobaciones, tras lo cual la utilidad ejecuta secuencialmente comandos externos. Nmap realiza reconocimiento de red y determina servicios, whois ayuda a obtener datos de registro, whatweb recopila señales del stack web, curl muestra los encabezados HTTP, dig verifica DNS y Nikto busca problemas típicos de servidores web.
</p>
<p>
	 Conviene entender por separado el papel de Nikto. Los desarrolladores describen a Nikto como un escáner de servidores web de código abierto para profesionales de seguridad, pentesters y administradores de sistemas. El escáner comprueba miles de archivos potencialmente peligrosos o relevantes, versiones antiguas de servidores y errores de configuración comunes. Es una herramienta útil, pero ruidosa: algunos hallazgos requieren verificación manual, y ejecutarla contra direcciones ajenas sin permiso puede parecer un escaneo agresivo.
</p>
<p>
	 El modelo local se ejecuta mediante Ollama. En el README se menciona la imagen base huihui_ai/qwen3.5-abliterated:9b y un modelo personalizado metatron-qwen, creado mediante Modelfile. Aquí hay un matiz técnico. En Ollama, Modelfile suele establecer la imagen base y los parámetros de ejecución, y no significa necesariamente un reentrenamiento completo de pesos. Por eso la expresión «fine-tuned» en la descripción del proyecto conviene interpretarla con cautela: sin un adaptador o pesos separados puede tratarse de ajuste del comportamiento del modelo, prompt del sistema y parámetros de generación.
</p>
<p>
	 Tras el análisis, el script guarda los resultados en MariaDB. El esquema consta de cinco tablas relacionadas: historial de escaneos, vulnerabilidades encontradas, correcciones, intentos de explotación y resumen. Esa estructura resulta útil para trabajos formativos y revisiones repetidas, porque los resultados no se pierden en la terminal. Se puede volver a una sesión concreta, editar una entrada, eliminar un hallazgo erróneo o exportar el informe.
</p>
<p>
</p>
<h2>Metatron y PentestGPT: en qué se diferencian los asistentes de IA para pentesting</h2>
<p>
	 La comparación con PentestGPT ayuda a entender en qué destaca el proyecto. PentestGPT surgió de una idea investigadora sobre el uso de grandes modelos de lenguaje para guiar escenarios de pentesting. En publicaciones y repositorios relacionados con PentestGPT el énfasis suele ponerse en el acompañamiento interactivo del ataque: la tarea se divide en pasos, se mantiene contexto y se ofrecen pistas para CTF o pruebas manuales. Ese enfoque se asemeja más a un «compañero estratega» que ayuda a planear la siguiente jugada.
</p>
<p>
	 Metatron está diseñado de forma más práctica y madura. No pretende ser un sistema universal para todas las clases de tareas como web, criptografía, ingeniería inversa, forense o escalada de privilegios. El proyecto adopta un escenario más terrenal: ejecutar un conjunto de herramientas de reconocimiento, pasar la salida al modelo local, guardar el resultado en la base y preparar un informe. La singularidad no está en la profundidad de razonamiento autónomo, sino en la integración local «scanners + LLM + MariaDB + exportación» sin API en la nube.
</p>
<table>
<thead>
<tr>
	<th>
		 Criterio
	</th>
	<th>
		 Metatron
	</th>
	<th>
		 PentestGPT
	</th>
</tr>
</thead>
<tbody>
<tr>
	<td>
		 Escenario principal
	</td>
	<td>
		 Reconocimiento local del objetivo, análisis de la salida de herramientas, historial e informes
	</td>
	<td>
		 Acompañamiento interactivo del pentest, planificación de pasos, ayuda en CTF y tareas manuales
	</td>
</tr>
<tr>
	<td>
		 Modelo de trabajo
	</td>
	<td>
		 Utilidad CLI que ejecuta nmap, whois, whatweb, curl, dig y Nikto
	</td>
	<td>
		 La LLM ayuda a gestionar la tarea, construir la cadena de acciones y analizar resultados intermedios
	</td>
</tr>
<tr>
	<td>
		 Localidad
	</td>
	<td>
		 Ejecución declarada mediante Ollama sin nube ni claves de API
	</td>
	<td>
		 Depende de la implementación y configuración; a menudo implica LLM externas o una configuración más compleja
	</td>
</tr>
<tr>
	<td>
		 Almacenamiento de datos
	</td>
	<td>
		 MariaDB con historial de escaneos, vulnerabilidades, correcciones y resumen
	</td>
	<td>
		 Enfocado más en el flujo de la tarea y la lógica del agente que en una base de informes
	</td>
</tr>
<tr>
	<td>
		 Fortaleza
	</td>
	<td>
		 Privacidad, automatización simple del reconocimiento, historial claro de resultados
	</td>
	<td>
		 Flexibilidad de razonamiento, ayuda para elegir los siguientes pasos, mayor cobertura de escenarios
	</td>
</tr>
<tr>
	<td>
		 Limitación
	</td>
	<td>
		 Conjunto limitado de herramientas y dependencia de la calidad de interpretación del modelo local
	</td>
	<td>
		 Riesgo de configuración compleja, dependencia del modelo y posibles errores en el razonamiento
	</td>
</tr>
</tbody>
</table>
<p>
	 Si se busca un asistente local para reconocimiento inicial y generación de informes, Metatron suele ser más adecuado. Si se prioriza el acompañamiento interactivo de tareas complejas, resolución de CTF o ayuda para decidir el siguiente paso en pruebas manuales, PentestGPT coincide más con esa intención. En ambos casos la IA no debe tener libertad para ejecutar comandos peligrosos sin control: el especialista debe mantener los límites de la comprobación, leer la salida bruta de las herramientas y confirmar cada hallazgo serio.
</p>
<h2>Ventajas, limitaciones y riesgos del pentesting con IA local</h2>
<table>
<thead>
<tr>
	<th>
		 Aspecto
	</th>
	<th>
		 Qué aporta
	</th>
	<th>
		 Dónde hay riesgo
	</th>
	<th>
		 Cómo reducir el riesgo
	</th>
</tr>
</thead>
<tbody>
<tr>
	<td>
		 Localidad
	</td>
	<td>
		 Los registros de escaneo no salen a APIs externas; el análisis puede mantenerse en la propia máquina.
	</td>
	<td>
		 El modelo local exige recursos y una configuración de entorno adecuada.
	</td>
	<td>
		 Comprobar de antemano memoria, disco, versión de Ollama y del modelo.
	</td>
</tr>
<tr>
	<td>
		 Menos rutina
	</td>
	<td>
		 La herramienta reúne la salida de nmap, Nikto y otras utilidades en un resumen comprensible.
	</td>
	<td>
		 El resumen automático puede ocultar detalles importantes de la salida cruda.
	</td>
	<td>
		 Revisar los resultados originales de los escáneres, no solo el texto generado por el modelo.
	</td>
</tr>
<tr>
	<td>
		 Historial conveniente
	</td>
	<td>
		 MariaDB almacena escaneos, hallazgos, correcciones y análisis final.
	</td>
	<td>
		 Una entrada errónea en la base puede aparecer en un informe como un hecho confirmado.
	</td>
	<td>
		 Editar y volver a verificar los hallazgos antes de exportar.
	</td>
</tr>
<tr>
	<td>
		 Análisis de IA
	</td>
	<td>
		 El modelo ayuda a correlacionar servicios, versiones, posibles vulnerabilidades y recomendaciones.
	</td>
	<td>
		 El modelo puede inventar CVE, evaluar mal la gravedad o proponer explotaciones innecesarias.
	</td>
	<td>
		 Verificar CVE, versiones e impacto en fuentes oficiales.
	</td>
</tr>
<tr>
	<td>
		 Bucle agéntico
	</td>
	<td>
		 La IA puede solicitar comprobaciones adicionales durante el análisis.
	</td>
	<td>
		 Ejecutar comandos sin control contra direcciones externas es peligroso legal y técnicamente.
	</td>
	<td>
		 Usar lista blanca de comandos, registro de acciones y confirmación manual.
	</td>
</tr>
<tr>
	<td>
		 Requisitos de hardware
	</td>
	<td>
		 La ejecución local reduce la dependencia de la nube y de suscripciones.
	</td>
	<td>
		 En máquinas modestas, un modelo grande puede ralentizar el sistema o provocar intercambio en disco.
	</td>
	<td>
		 Usar un modelo más pequeño, SSD rápido y memoria RAM suficiente.
	</td>
</tr>
</tbody>
</table>
<p>
	 Un asistente de IA local es útil para interpretar resultados de reconocimiento, pero la decisión final debe tomarla una persona. Cualquier vulnerabilidad encontrada debe verificarse manualmente, cotejarse con fuentes oficiales y considerarse en el contexto del sistema concreto.
</p>
<h3>Preguntas frecuentes sobre Metatron</h3>
<p>
 <strong>¿Metatron funciona completamente sin conexión?</strong><br>
	 El análisis local mediante Ollama puede operar sin nube ni claves de API. Pero la función de búsqueda web declarada mediante DuckDuckGo y la consulta de CVE requieren acceso a internet. Es más correcto decir: el núcleo del análisis y la base funcionan localmente, y la búsqueda en red depende del modo elegido.
</p>
<p>
 <strong>¿Se puede confiar en las salidas de metatron-qwen?</strong><br>
	 No sin verificación. El modelo ayuda a enlazar hechos y preparar un borrador de análisis, pero puede equivocarse respecto a CVE, la versión de un servicio, la gravedad del riesgo o la forma de mitigarlo.
</p>
<p>
 <strong>¿En qué se diferencia Metatron de PentestGPT?</strong><br>
	 Metatron se parece más a un conjunto CLI local para reconocimiento, base de resultados e informes. PentestGPT está más orientado a ser un asistente interactivo que guía la tarea, ayuda a planear pasos y analiza el progreso del pentest.
</p>
<p>
 <strong>¿Sirve la herramienta para principiantes?</strong><br>
	 Es adecuada para formarse en un laboratorio propio, siempre que el usuario consulte la salida cruda de nmap, Nikto y otras utilidades. Para comprobaciones reales sin experiencia, es preferible contar con un especialista, ya que errores en el alcance y en la interpretación pueden acarrear problemas legales y técnicos.
</p>
<p>
 <strong>¿Se puede ejecutar Metatron contra sitios ajenos?</strong><br>
	 No sin el permiso expreso del propietario del sistema. El escaneo y, mucho más, los intentos de explotación de infraestructuras ajenas pueden violar la ley y las normas de las plataformas.
</p>
<p>
	 Metatron resulta interesante como asistente local para pentest autorizado, entornos de práctica y auditorías internas de inventario de riesgos. El script ahorra tiempo en la recopilación y el análisis inicial de datos, pero no convierte a la LLM en experta ni sustituye la verificación manual. Use la herramienta solo en sus sistemas o donde exista permiso escrito, defina de antemano los límites de la comprobación y cumpla la legislación de la Federación de Rusia. Un comportamiento responsable en pentesting es más importante que cualquier CLI «inteligente».
</p><br /><a href="http://www.securitylab.lat/blog//paragraphES/360513.php">More...</a>]]></description>
      <link>http://www.securitylab.lat/blog//paragraphES/360513.php</link>
    </item>

    <item>
      <title>Techno Lady: Chromium GOST: ¿por qué las empresas rusas necesitan una versión especial del navegador?</title>
      <description><![CDATA[<p>
	 Chromium GOST no se instala para reemplazar el navegador habitual en toda la empresa. Tiene otra misión: permitir el acceso a sistemas que requieren GOST TLS, certificados de cliente, firma electrónica cualificada y trabajo con criptografía directamente en el navegador. En esos recursos, Chromium, Chrome o Edge habituales con frecuencia se topan con limitaciones en los algoritmos criptográficos. Como resultado, el sitio o bien no abre la conexión segura, o no permite entrar con certificado, o no puede invocar la firma de un documento.
</p>
<p>
 <a href="https://github.com/deemru/Chromium-Gost" class="fancy-link">Chromium GOST</a> es una compilación independiente de Chromium con soporte para algoritmos criptográficos rusos al establecer conexiones seguras. Exteriormente es un navegador familiar con el mismo motor. La diferencia es que, para sitios con cifrado GOST, puede trabajar no solo a través del conjunto TLS estándar de Chromium, sino también a través de la interfaz criptográfica del sistema con un criptoproveedor instalado.
</p>
<h2>Qué es Chromium GOST en la práctica</h2>
<p>
	 En la práctica, Chromium GOST es un navegador especializado para puestos de trabajo donde el sistema web exige soporte de los algoritmos GOST. Normalmente se instala en los puestos donde hay acceso mediante certificado, trabajo con tokens, firma de documentos y una fuerte dependencia de las herramientas criptográficas rusas.
</p>
<p>
	 En el propio proyecto se indica claramente que el Chromium habitual usa la biblioteca BoringSSL, y esta no soporta los algoritmos GOST. Chromium GOST resuelve ese problema a través de <i>msspi</i>. Si un sitio admite trabajo por GOST, el navegador puede cambiar el establecimiento de la conexión segura&nbsp;a la interfaz del sistema y utilizar el criptoproveedor instalado.
</p>
<p>
	 Para el usuario esto se ve como la apertura normal del sitio. Para el administrador la diferencia ya es sustancial: el navegador comienza a depender de qué criptoproveedor esté instalado, qué certificados hay en el sistema, si el token está conectado y si el puesto de trabajo está configurado por completo. Por eso Chromium GOST rara vez se considera de forma aislada de la infraestructura criptográfica.
</p>
<p>
	 El propio navegador no cubre toda la tarea. Si en el equipo no está instalado CryptoPro CSP u otro criptoproveedor compatible, si no se ha instalado el certificado raíz de la autoridad certificadora, si falta el controlador del token o la extensión para la firma, el navegador no firmará nada ni arreglará la situación. Resuelve su parte de la tarea: añade soporte de GOST en el navegador.
</p>
<h2>Dónde las empresas realmente lo necesitan</h2>
<ul>
	<li><strong>Acceso a sistemas en los que ya en la conexión se requieren GOST TLS y certificado de cliente.</strong> Aquí se incluyen portales gubernamentales, sistemas de información departamentales, servicios corporativos con autenticación por certificado y recursos internos que funcionan solo mediante la pila criptográfica rusa.</li>
	<li><strong>Firma de documentos directamente en el navegador.</strong> No basta con abrir la página. El puesto debe ver el certificado, poder acceder a la clave privada, interactuar con el criptoproveedor y, si el servicio usa firma web, funcionar correctamente con CryptoPro ECP Browser plug-in. Para muchas empresas esa combinación es la razón principal para instalar Chromium GOST.</li>
	<li><strong>Trabajo con sistemas corporativos internos.</strong> En organizaciones grandes a menudo hay servicios web propios con cifrado GOST, autenticación por certificados y requisitos de seguridad que no se pueden sortear con la configuración de un navegador estándar. En esos casos Chromium GOST se incorpora a la suite estándar de programas para ciertos puestos de trabajo.</li>
</ul>
<p>
	 Por eso en la práctica corporativa casi nunca se considera como el navegador universal para toda la empresa. El navegador habitual permanece para el trabajo cotidiano, y Chromium GOST se usa donde sin soporte de GOST la conexión o la firma simplemente no funcionan.
</p>
<table>
<thead>
<tr>
	<th>
		 Tarea
	</th>
	<th>
		 Por qué Chromium habitual puede no ser suficiente
	</th>
	<th>
		 Qué suele ser necesario además
	</th>
</tr>
</thead>
<tbody>
<tr>
	<td>
		 Acceso al portal departamental mediante certificado
	</td>
	<td>
		 La pila criptográfica estándar de Chromium no soporta GOST TLS
	</td>
	<td>
		 Chromium GOST, criptoproveedor, certificados de la autoridad certificadora
	</td>
</tr>
<tr>
	<td>
		 Firma de documentos en la interfaz web
	</td>
	<td>
		 Se necesita acceso al certificado y la invocación de funciones de firma electrónica desde el navegador
	</td>
	<td>
		 CryptoPro CSP, Browser plug-in, controlador del token
	</td>
</tr>
<tr>
	<td>
		 Trabajo con portal interno con cifrado GOST
	</td>
	<td>
		 Un navegador estándar no establecerá la conexión segura requerida
	</td>
	<td>
		 Chromium GOST y un criptoproveedor configurado
	</td>
</tr>
<tr>
	<td>
		 Puestos de trabajo en Linux o macOS para firma y acceso mediante firma electrónica cualificada
	</td>
	<td>
		 Se necesita una compilación de navegador compatible y una integración funcional con las herramientas criptográficas
	</td>
	<td>
		 Chromium GOST, CSP, extensión de firma, certificados
	</td>
</tr>
</tbody>
</table>
<h2>Cómo funciona Chromium GOST técnicamente</h2>
<p>
	 La principal diferencia comienza en el nivel de establecimiento de la conexión segura. En el Chromium habitual la biblioteca BoringSSL se encarga de TLS. Para la mayoría de sitios eso es suficiente. Pero no soporta los algoritmos GOST. Por eso Chromium GOST añade otra vía de trabajo: a través&nbsp;de la interfaz del sistema&nbsp;<i>msspi</i> y del criptoproveedor instalado.
</p>
<p style="text-align: center;">
</p>
<p>
	 La lógica es la siguiente. Al iniciarse, el navegador comprueba si el sistema puede trabajar con GOST mediante <i>msspi</i>. Si puede, al conectarse a un sitio el navegador envía no solo los identificadores estándar de algoritmos, sino también las variantes GOST. Si el servidor sabe trabajar por GOST, responde en consecuencia, y el navegador cambia la conexión al mecanismo del sistema. Tras una conexión exitosa, el sitio se recuerda como recurso con soporte GOST, y las siguientes conexiones a él se hacen de la misma forma.
</p>
<p>
	 Para el servicio de TI esto significa algo simple: Chromium GOST hace falta solo donde en el servidor realmente hay soporte GOST. Si el sitio funciona con TLS habitual sin algoritmos rusos, la compilación adicional no cambia nada. No hace que todos los sitios sean más seguros ni añade valor donde la tarea ya la resuelve el navegador estándar.
</p>
<p>
	 De ahí surgen también problemas típicos en los puestos de trabajo. Si el servidor está mal configurado, si el criptoproveedor está obsoleto, si faltan certificados o la extensión de firma funciona con errores, el usuario observa síntomas sencillos: el sitio no se abre, el certificado no aparece, la firma no se invoca, no se encuentra el contenedor de la clave privada. En estos casos el fallo puede estar en cualquier punto de la cadena, no solo en el navegador.
</p>
<h2>Por qué un solo navegador generalmente no es suficiente</h2>
<p>
	 Esta es una de las fallas más comunes al implantarlo. Parece que basta instalar Chromium GOST y el puesto de trabajo queda listo. En la práctica, el navegador solo resuelve el soporte de conexiones GOST. Para trabajar con firma cualificada casi siempre se necesita además un criptoproveedor, con frecuencia CryptoPro CSP, y para firmar en el navegador también el Browser plug-in.
</p>
<p>
	 Después vienen el resto de elementos obligatorios: controladores de Rutoken o JaCarta, certificados raíz e intermedios de las autoridades certificadoras, acceso al contenedor de la clave privada, permisos para extensiones, políticas de grupo y comprobación de compatibilidad con el sistema web concreto. Si falla aunque sea un elemento, el usuario suele pensar que el problema está en el navegador, aunque no siempre sea así.
</p>
<p>
	 Por eso en una explotación corporativa normal Chromium GOST se despliega como parte de un paquete preparado para los puestos de trabajo. Se incluye en la imagen del puesto o en un conjunto centralizado de instalación, y no se entrega simplemente como otro navegador con la petición de que cada uno lo instale y configure manualmente. Cuantos más certificados, tokens, sistemas antiguos y sistemas operativos diferentes haya en la empresa, más importante es este enfoque.
</p>
<p>
	 Desde el punto de vista del mantenimiento es un componente especializado habitual. Hay que actualizarlo, comprobarlo tras las versiones, probarlo junto a CryptoPro CSP, extensiones y portales concretos. Tratarlo como un navegador corriente para la navegación diaria en el entorno corporativo normalmente resulta incómodo.
</p>
<h2>Cuándo las empresas no lo necesitan</h2>
<p>
	 Si la organización trabaja solo con servicios web habituales, correo, CRM, portales internos sin GOST TLS y sitios sin autenticación por certificado, Chromium GOST normalmente no hace falta. En esas condiciones basta con un navegador corporativo estándar con las políticas de seguridad y certificados adecuados.
</p>
<p>
	 Tampoco es indispensable donde la tarea ya la resuelve otro navegador soportado con soporte GOST. En la práctica la cuestión rara vez es si se necesita exactamente Chromium GOST a toda costa, y más bien es: qué navegador en la infraestructura concreta se integra mejor con el CSP, el plugin, los certificados y el soporte corporativo.
</p>
<p>
	 Por eso la decisión suele ser de uso concreto. Si sin ese navegador no es posible acceder al sistema necesario o firmar un documento, se instala. Si todo funciona con el navegador corporativo estándar, la compilación adicional no es necesaria.
</p>
<h2>Conclusión</h2>
<p>
	 Chromium GOST para las empresas rusas no es un navegador para todas las situaciones, sino una herramienta para un conjunto concreto de tareas. Se usa donde Chromium habitual no alcanza con GOST TLS, certificados de cliente y firma web.
</p>
<p>
	 Lo esencial es que Chromium GOST casi nunca funciona de forma aislada. Hace falta en conjunto con el criptoproveedor, el plugin de firma, los controladores de tokens y los certificados de las autoridades certificadoras. Por eso no tiene mucho sentido discutirlo como un navegador más. Para la empresa es parte de un puesto de trabajo configurado.
</p>
<p>
	 Si la empresa necesita un navegador universal para el trabajo diario, Chromium GOST puede resultar superfluo. Si se requiere acceso a sistemas con GOST TLS y firma electrónica cualificada, sin una compilación así o un análogo cercano normalmente no se puede prescindir.
</p>
<h3>En breve</h3>
<ul>
	<li>Chromium GOST es una compilación de Chromium con soporte de algoritmos GOST para conexiones seguras</li>
	<li>Hace falta donde el sistema web exige GOST TLS, certificado de cliente o trabajo con firma electrónica cualificada</li>
	<li>El Chromium habitual usa BoringSSL y por sí solo no cubre estas tareas</li>
	<li>Para funcionar plenamente suelen ser necesarios CryptoPro CSP, Browser plug-in, certificados de autoridad certificadora y controladores de tokens</li>
	<li>En las empresas Chromium GOST suele instalarse en parte de los puestos de trabajo, no como sustituto del navegador principal para todos los empleados</li>
</ul><br /><a href="http://www.securitylab.lat/blog//TechnoladyES/360484.php">More...</a>]]></description>
      <link>http://www.securitylab.lat/blog//TechnoladyES/360484.php</link>
    </item>

    <item>
      <title>Room Bloger: Máscara de subred: qué es, para qué sirve y cómo calcularla</title>
      <description><![CDATA[<p>
	 La máscara de subred ayuda al dispositivo a entender qué parte de la dirección IPv4 pertenece a la red y qué parte queda para el dispositivo concreto. Sin máscara, una dirección como 192.168.1.25 dice poco sobre los límites de la red local. Con la máscara 255.255.255.0 esa misma dirección se interpreta mejor: red 192.168.1.0, dispositivo dentro de la red&nbsp;– 25.
</p>
<p>
	 En la práctica la máscara suele anotarse de dos maneras. La primera se parece a una dirección IPv4 normal, por ejemplo 255.255.255.0. La segunda se conoce como prefijo CIDR: /24, /26, /30. El número después de la barra indica cuántos bits iniciales de la dirección están ocupados por la parte de red. Este enfoque se adoptó después de que&nbsp;el direccionamiento por clases fuera reemplazado por CIDR, descrito en <a href="https://datatracker.ietf.org/doc/html/rfc4632">RFC&nbsp;4632</a>. En la documentación de Cloudflare la máscara también se describe como una guía interna para enrutadores: los paquetes en Internet llevan la dirección de destino y los enrutadores la comparan con prefijos de red conocidos.
</p>
<h2>Qué es la máscara de subred en IPv4 y para qué sirve</h2>
<p>
	 Una dirección IPv4 consta de 32 bits. Para mayor comodidad la gente la escribe con cuatro números entre 0 y 255, separados por puntos. La máscara de subred también tiene 32 bits. Los unos en la máscara señalan la parte de red; los ceros indican la parte destinada a los hosts, es decir, ordenadores, teléfonos, cámaras, servidores y otros dispositivos.
</p>
<p>
	 Por ejemplo, la máscara 255.255.255.0 en binario es: 11111111.11111111.11111111.00000000. Los primeros 24 bits son unos, por eso esa máscara se anota como /24. La dirección 192.168.1.25/24 significa que los tres primeros octetos forman la red 192.168.1.0 y el último octeto se reserva para los dispositivos.
</p>
<p>
	 La máscara no sirve solo para registrar direcciones de forma ordenada. Un dispositivo compara su dirección IP y la dirección de destino con la máscara para decidir si enviar el paquete directamente a la red local o reenviarlo al gateway. Si la dirección de destino cae en la misma subred, el dispositivo intenta encontrar al receptor dentro del segmento local. Si la dirección está fuera de la subred, el paquete se envía al enrutador.
</p>
<p>
	 Por eso un error en la máscara suele romper la conectividad de forma extraña. Dos equipos pueden tener direcciones IP correctas y el mismo gateway, pero uno de ellos considerará al vecino «externo» o, al contrario, intentará buscar una dirección remota dentro de la red local. En una red pequeña estos errores suelen manifestarse como una impresora, cámara o servidor inaccesible, aunque «Internet parece funcionar».
</p>
<blockquote>
	 La máscara de subred no cifra el tráfico ni protege la red por sí sola. Solo define los límites del espacio de direcciones. Para proteger la red hacen falta reglas de firewall, segmentación, control de acceso y una ruta configurada correctamente.
</blockquote>
<h2>Cómo calcular la máscara de subred, la red y el rango de direcciones</h2>
<p>
</p>
<p>
	 El método más claro parte del prefijo CIDR. Tomemos la dirección 192.168.10.34/27. El prefijo /27 significa que 27 bits están ocupados por la red y quedan 5 bits para las direcciones dentro de la subred. El número total de direcciones se calcula con la fórmula: 2 elevado a la cantidad de bits de host. En el ejemplo resulta 2^5&nbsp;=&nbsp;32 direcciones.
</p>
<p>
	 Para una subred IPv4 clásica normalmente se restan dos direcciones. La primera dirección del rango identifica la propia red y la última se usa como dirección de broadcast. Por tanto, /27 ofrece 30 direcciones útiles para dispositivos. Hay excepciones, por ejemplo en enlaces punto a punto y escenarios especiales, pero para una red local típica la regla de «menos dos» funciona.
</p>
<p>
	 Después hay que encontrar el tamaño del bloque de subred. Con /27 la máscara es 255.255.255.224. El último octeto significativo es 224. El cálculo del salto es: 256&nbsp;–&nbsp;224&nbsp;=&nbsp;32. Por tanto, las subredes avanzan en bloques de 32 direcciones: 192.168.10.0, 192.168.10.32, 192.168.10.64, 192.168.10.96 y así sucesivamente.
</p>
<p>
	 La dirección 192.168.10.34 está en el bloque de 192.168.10.32 a 192.168.10.63. Por eso la dirección de red será 192.168.10.32, la de broadcast&nbsp;– 192.168.10.63, y el rango útil para dispositivos&nbsp;– de 192.168.10.33 a 192.168.10.62.
</p>
<table>
<thead>
<tr>
	<th>
		 Prefijo
	</th>
	<th>
		 Máscara
	</th>
	<th>
		 Total de direcciones
	</th>
	<th>
		 Normalmente disponibles para hosts
	</th>
	<th>
		 Dónde se usa con frecuencia
	</th>
</tr>
</thead>
<tbody>
<tr>
	<td>
		 /24
	</td>
	<td>
		 255.255.255.0
	</td>
	<td>
		 256
	</td>
	<td>
		 254
	</td>
	<td>
		 Redes domésticas y de oficina
	</td>
</tr>
<tr>
	<td>
		 /25
	</td>
	<td>
		 255.255.255.128
	</td>
	<td>
		 128
	</td>
	<td>
		 126
	</td>
	<td>
		 División de una /24 en dos mitades
	</td>
</tr>
<tr>
	<td>
		 /26
	</td>
	<td>
		 255.255.255.192
	</td>
	<td>
		 64
	</td>
	<td>
		 62
	</td>
	<td>
		 Departamentos pequeños o VLAN
	</td>
</tr>
<tr>
	<td>
		 /27
	</td>
	<td>
		 255.255.255.224
	</td>
	<td>
		 32
	</td>
	<td>
		 30
	</td>
	<td>
		 Segmentos pequeños
	</td>
</tr>
<tr>
	<td>
		 /28
	</td>
	<td>
		 255.255.255.240
	</td>
	<td>
		 16
	</td>
	<td>
		 14
	</td>
	<td>
		 Subredes de servidores o de servicio
	</td>
</tr>
<tr>
	<td>
		 /30
	</td>
	<td>
		 255.255.255.252
	</td>
	<td>
		 4
	</td>
	<td>
		 2
	</td>
	<td>
		 Enlaces punto a punto clásicos
	</td>
</tr>
<tr>
	<td>
		 /32
	</td>
	<td>
		 255.255.255.255
	</td>
	<td>
		 1
	</td>
	<td>
		 1 en escenarios especiales
	</td>
	<td>
		 Dirección de un solo host o loopback
	</td>
</tr>
</tbody>
</table>
<p>
	 El cálculo inverso también es sencillo. Si hay que elegir una máscara para una cantidad de dispositivos, primero se toma el número de dispositivos, se añade margen y las dos direcciones reservadas, y luego se busca la potencia de dos inmediata superior. Por ejemplo, para 50 dispositivos hacen falta al menos 52 direcciones. La potencia de dos superior es 64. Para hosts hacen falta 6 bits, porque 2^6&nbsp;=&nbsp;64. Una dirección IPv4 tiene 32 bits, por tanto el prefijo será 32&nbsp;–&nbsp;6&nbsp;=&nbsp;/26. La máscara para esa red es 255.255.255.192.
</p>
<p>
	 Para 100 dispositivos sirve /25: 128 direcciones en total y 126 para hosts. Para 200 dispositivos sirve /24: 256 direcciones en total y 254 para hosts. Para 500 dispositivos una sola /24 ya es insuficiente. Se necesita al menos un bloque de 512 direcciones, es decir /23, donde normalmente hay disponibles 510 direcciones para dispositivos.
</p>
<h2>Errores típicos al calcular la máscara de subred</h2>
<p>
	 El primer error se debe a la confusión entre la dirección IP del dispositivo, la dirección de red y la dirección de broadcast. En la red 192.168.1.0/24 la dirección 192.168.1.0 no se puede asignar a un equipo como dirección de host y 192.168.1.255 normalmente se usa para enviar mensajes dentro de la subred. El rango operativo comienza en 192.168.1.1 y termina en 192.168.1.254.
</p>
<p>
	 El segundo error surge al elegir la máscara «a ojo». Las máscaras no pueden ser números arbitrarios como 255.255.255.200. En una máscara válida los unos van contiguos de izquierda a derecha y después solo vienen ceros. Por eso son aceptables los valores de octeto: 0, 128, 192, 224, 240, 248, 252, 254 y 255. RFC&nbsp;4632 describe explícitamente la máscara CIDR como una secuencia de unos más significativos seguida por ceros menos significativos.
</p>
<p>
	 El tercer error se relaciona con dejar poco margen de direcciones. Una red con 30 hosts disponibles puede parecer suficiente para 28 dispositivos, pero al cabo de un mes llegan teléfonos, impresoras, cámaras, puntos de acceso, máquinas virtuales y una red de invitados. Entonces el administrador se ve obligado a cambiar&nbsp;el esquema de direccionamiento con urgencia. En redes de trabajo es mejor prever crecimiento y dividir el espacio de direcciones en segmentos claros.
</p>
<p>
	 El cuarto error aparece al mezclar IPv4 e IPv6. La máscara 255.255.255.0 corresponde a IPv4. En IPv6 se usa notación con prefijo, por ejemplo /64, pero la mecánica de direccionamiento y las direcciones de broadcast habituales funcionan de forma distinta. No se deben trasladar reglas de IPv4 a IPv6 sin verificar.
</p>
 <details> <summary>¿Qué significa la máscara 255.255.255.0?</summary>
<p>
	 La máscara 255.255.255.0 equivale al prefijo /24. Los primeros 24 bits de la dirección indican la red y los últimos 8 bits quedan para los dispositivos. En esa subred hay 256 direcciones en total, de las cuales en un esquema típico están disponibles 254 para hosts.
</p>
 </details> <details> <summary>¿En qué se diferencia la máscara del gateway?</summary>
<p>
	 La máscara define los límites de la subred y el gateway reenvía el tráfico a otras redes. Si un dispositivo detecta que la dirección de destino no pertenece a la subred local, el paquete se envía al gateway.
</p>
 </details> <details> <summary>¿Cómo entender rápidamente cuántos hosts ofrece un prefijo?</summary>
<p>
	 Hay que restar el prefijo de 32 y calcular 2 elevado a la potencia resultante. Para /26 quedan 6 bits, por tanto hay 64 direcciones en total. En una subred IPv4 típica quedan 62 direcciones para hosts.
</p>
 </details> <details> <summary>¿Se pueden usar /31 y /32?</summary>
<p>
	 Se pueden usar, pero no como subredes de usuario habituales. /32 designa una sola dirección y a menudo se usa para loopback o rutas específicas. /31 se aplica en ciertos enlaces punto a punto, si el equipo y el diseño de la red soportan ese modo.
</p>
 </details> <details> <summary>¿Hace falta calcular la máscara manualmente cada vez?</summary>
<p>
	 Para aprendizaje y diagnóstico el cálculo manual es útil. En el trabajo real es más práctico comprobar los resultados con una calculadora CIDR, pero el administrador debe entender por qué la herramienta devolvió un rango concreto.
</p>
 </details><br /><a href="http://www.securitylab.lat/blog//paragraphES/360480.php">More...</a>]]></description>
      <link>http://www.securitylab.lat/blog//paragraphES/360480.php</link>
    </item>

    <item>
      <title>Niko Nepo: Kimi K2.6: análisis del modelo Moonshot AI — fortalezas, límites y casos de uso</title>
      <description><![CDATA[<p>
	 Kimi K2.6 se lanzó como el intento de Moonshot AI de ocupar un nicho muy concreto. No es solo «otro modelo grande», sino un modelo abierto orientado a tareas de ingeniería largas, trabajo con herramientas y escenarios semiautónomos donde no basta una sola respuesta acertada, sino una larga cadena de acciones. Según la descripción oficial, Moonshot apuesta por el código, las cadenas de agentes, la multimodalidad y el contexto extenso. En el papel, el panorama parece casi perfecto.
</p>
<p>
	 Pero en este tipo de lanzamientos siempre hay una trampa recurrente. Cuanto más rimbombantes son las frases sobre «agent swarm», «long-horizon coding» y «production-ready interfaces», más importante es separar la demostración de capacidades de la explotación real. Kimi K2.6 tiene una propuesta sólida, una licencia interesante y un conjunto técnico bastante decente. Al mismo tiempo, ya se ven limitaciones que impiden considerar el modelo como un reemplazo universal para todo.
</p>
<h2>Qué es Kimi K2.6 y por qué se habló de ella</h2>
<p>
	 Kimi K2.6 es un modelo abierto de Moonshot AI, disponible en la <a href="https://www.kimi.com/ai-models/kimi-k2-6">página oficial</a>, en la API y como pesos en Hugging Face. Moonshot califica el lanzamiento como nativamente multimodal y orientado a agentes. En términos prácticos y claros: el modelo puede procesar no solo texto, sino también imágenes y video, puede trabajar en modo de razonamiento, puede invocar herramientas y está pensado para tareas largas donde hay que mantener un contexto amplio sin desmoronarse tras unos pocos pasos.
</p>
<p>
	 La señal principal en el mercado no está solo en la calidad de las respuestas, sino en la combinación de rasgos. Kimi K2.6 tiene pesos abiertos, arquitectura MoE con 1 billón de parámetros totales y 32 mil millones de parámetros activos por token, contexto de 256K, soporte para llamadas a herramientas y un enfoque bastante agresivo en programación. Frente a muchas otras propuestas que o bien son cerradas, o bien destacan solo en chat, o bien no mantienen bien sesiones largas, este paquete se percibe como serio.
</p>
<h2>Base técnica sin la parafernalia publicitaria</h2>
<p>
	 Según la ficha del modelo en Hugging Face, Kimi K2.6 usa una arquitectura Mixture-of-Experts, 1T de parámetros totales, 32B de parámetros activos por token, 384 expertos, 8 expertos seleccionables por token, un núcleo denso feed-forward, un vocabulario de 160K y una ventana de contexto de 256K. También se indica que el modelo emplea atención MLA, SwiGLU y un encoder de visión separado, MoonViT, de 400 millones de parámetros. El lanzamiento ocupa bastante espacio: en Hugging Face la ficha muestra alrededor de 595 GB de archivos, así que la ejecución local no es algo del tipo «descargué por la noche y lo probé en la GPU doméstica».
</p>
<p>
	 Otro punto práctico importante: Moonshot no oculta que la infraestructura alrededor del lanzamiento todavía está poniéndose al día con el modelo. En la guía de despliegue se dice que los motores de inferencia aún se actualizan, y para vLLM recomiendan inicialmente builds nocturnas, aunque también mencionan una rama estable verificada. Para SGLang hay un camino más claro, pero el sentido general no cambia. Hoy Kimi K2.6 parece un lanzamiento potente para quienes ya saben manejar ecosistemas con H200, TP8, integraciones inestables y ajustes manuales de parsers para llamadas de razonamiento/herramientas. Para el entusiasta local medio, la barrera de entrada es alta.
</p>
<h2>En qué Kimi K2.6 destaca</h2>
<p>
	 Si se dejan de lado las frases grandilocuentes, el modelo tiene tres áreas realmente interesantes.
</p>
<p>
	 La primera área es la programación a largo plazo. Moonshot subraya la robustez en tareas de ingeniería extensas, no solo en problemas cortos del tipo «escribe una función». En la ficha del modelo y en el blog técnico se menciona frontend, DevOps, optimización de rendimiento, Rust, Go y Python. Ese enfoque suele indicar que el modelo se entrenó no solo con ejercicios tipo LeetCode, sino con trayectorias más largas donde hay que recordar las restricciones del proyecto y no romper la propia lógica tras el quinto paso.
</p>
<p>
	 La segunda área son los escenarios con agentes. Moonshot afirma que K2.6 puede coordinar hasta 300 subagentes y hasta 4000 pasos coordinados. Las cifras son llamativas, pero conviene verlas como indicativas más que como garantía. Lo más relevante es que el modelo se diseñó para trabajar con herramientas, cadenas exploratorias y partición paralela de tareas. Para equipos que construyen asistentes internos con navegador, intérprete de código, búsquedas y automatización, este perfil es más útil que un «chat muy inteligente».
</p>
<p>
	 La tercera área es la multimodalidad sin artificios. En la documentación de la API Moonshot muestra soporte para texto, imágenes y video. En el desarrollo aplicado no es útil tanto la simple casilla «multimodal», sino la posibilidad de mantener un único stack para analizar interfaces, esquemas, capturas de pantalla, instrucciones en video y luego ejecutar acciones.
</p>
<h2>Los benchmarks son buenos, pero hay que interpretarlos con cautela</h2>
<p>
	 Moonshot publica un conjunto de resultados imponente. En Hugging Face para Kimi K2.6 aparecen, entre otros, 83,2 en BrowseComp, 92,5 de f1-score en DeepSearchQA, 66,7 en Terminal-Bench 2.0, 58,6 en SWE-Bench Pro y 80,2 en SWE-Bench Verified. En varios tests el modelo se sitúa junto a GPT-5.4, Claude Opus 4.6 y Gemini 3.1 Pro, y en algunos casos parece superarles.
</p>
<p>
	 El problema no es que los números sean necesariamente falsos. El problema es que parte de las comparaciones se basa en modos de razonamiento distintos, distintos esfuerzos de reasoning y no siempre en configuraciones prácticas equivalentes. Moonshot indica explícitamente que algunos valores para otros modelos provienen de informes oficiales y que algunos resultados se recalibraron por separado. Para un ingeniero o editor ese conjunto de benchmarks sirve como orientación, pero no como veredicto definitivo del mercado.
</p>
<p>
	 Hay una conclusión más sustantiva. Kimi K2.6 es claramente fuerte allí donde la tarea consiste en una larga secuencia de acciones conectadas y donde el modelo debe no solo «conocer la respuesta», sino mantener un estado de trabajo del proyecto. En esos escenarios el lanzamiento resulta más convincente que en comparaciones puras tipo tabla estética.
</p>
<h2>Dónde empiezan las limitaciones reales</h2>
<p>
	 Aquí Kimi K2.6 pierde algo del brillo festivo.
</p>
<p>
	 Primero, «modelo abierto» no equivale a «modelo sencillo». Formalmente los pesos son abiertos, la licencia es blanda y el uso comercial está permitido. Pero el tamaño del modelo y los requisitos de despliegue hacen que el uso local sea costoso. Si el proyecto necesita un producto predecible, los gastos de infraestructura rápidamente erosionan parte del romanticismo de la palabra «open».
</p>
<p>
	 Segundo, en torno al modo de razonamiento ya se notan asperezas. En la documentación Moonshot hay una limitación clara: la herramienta integrada web_search es temporalmente incompatible con el modo de razonamiento para Kimi K2.6 y K2.5, por lo que para búsquedas recomiendan desactivar primero el modo de razonamiento. Para un modelo que se vende como fuerte precisamente en cadenas largas de agentes, esa limitación no es trivial. En la práctica implica lógica adicional de enrutamiento, soluciones provisionales en la canalización y puntos de fallo extra.
</p>
<p>
	 Tercero, la autonomía tiende a sobreestimarse. El blog técnico de Moonshot describe un agente interno que trabajó de forma autónoma durante cinco días en tareas de monitoreo, incidentes y operaciones. La historia impresiona, pero es un ejemplo interno de la propia compañía, no una auditoría independiente de la industria. Más honesto sería decir: Kimi K2.6 parece prometedora para procesos semiautónomos, pero el nivel real de fiabilidad fuera de un entorno controlado aún debe comprobarse manualmente.
</p>
<p>
	 Cuarto, «genera interfaces listas para producción» suena mejor de lo que suele ser en la realidad del desarrollo. Sí, los modelos actuales pueden producir maquetas decentes, esqueleto de aplicaciones web y prototipos funcionales. Pero el camino desde una demo cuidada hasta una interfaz industrial real todavía pasa por revisión humana, seguridad, accesibilidad, validación y mantenimiento. Kimi K2.6 no rompe esas reglas de la industria.
</p>
<h2>Licencia: casi MIT, pero no del todo</h2>
<p>
	 Kimi K2.6 tiene una licencia curiosa. En Hugging Face se publicó una Modified MIT License. La lógica básica sigue siendo muy permisiva: el modelo y el código se pueden usar, copiar, modificar, publicar e integrar en productos comerciales. Pero hay una cláusula adicional que no se debe ignorar. Si un producto o servicio que use Kimi K2.6 tiene más de 100 millones de usuarios activos mensuales o más de 20 millones de dólares de ingresos mensuales, en la interfaz debe mostrarse de forma destacada la mención «Kimi K2.6».
</p>
<p>
	 Para la mayoría de equipos la restricción no es significativa. Para plataformas grandes —sí es una condición legal concreta. Por eso no es exacto decir que se trata de una «MIT totalmente libre». Es más correcto afirmar: la licencia es muy permisiva, pero no completamente neutral para actores comerciales de gran escala.
</p>
<h2>Cuánto cuesta Kimi K2.6 vía API</h2>
<p>
	 A través de la <a href="https://platform.kimi.ai/docs/guide/kimi-k2-6-quickstart">documentación oficial</a> Moonshot promueve K2.6 como el lanzamiento principal vigente. En precios la compañía indica 0,95 USD por 1 millón de tokens de entrada en caso de cache miss, 0,16 USD en caso de cache hit y 4 USD por 1 millón de tokens de salida. En el papel la entrada parece razonable, pero la salida ya no es tan económica, especialmente si el modelo trabaja en modo de razonamiento largo y llama a herramientas repetidamente.
</p>
<p>
	 Aquí hay un matiz práctico importante. Para un chat corriente el coste puede resultar tolerable. Para escenarios con agentes, donde el modelo lee contextos grandes, construye planes, escribe código, hace repeticiones y devuelve respuestas extensas, la factura final puede crecer mucho más de lo que el equipo espera en la fase piloto. Por eso hay que evaluar Kimi K2.6 no por el precio de «un mensaje», sino por el coste de toda una trayectoria de trabajo.
</p>
<h2>Cómo empezar con Kimi K2.6</h2>
<p>
	 Moonshot acertó al mantener compatibilidad con el formato de la API de OpenAI. Para un desarrollador la entrada es sencilla: se puede usar el SDK estándar de OpenAI, cambiando simplemente base_url y el modelo. Un ejemplo mínimo sería así.
</p>
 <pre>
====code====
<pre>import os
from openai import OpenAI

client = OpenAI(
&nbsp;&nbsp;&nbsp;&nbsp;api_key=os.getenv("MOONSHOT_API_KEY"),
&nbsp;&nbsp;&nbsp;&nbsp;base_url="https://api.moonshot.ai/v1"
)

resp = client.chat.completions.create(
&nbsp;&nbsp;&nbsp;&nbsp;model="kimi-k2.6",
&nbsp;&nbsp;&nbsp;&nbsp;messages=&#91;
&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;{"role": "system", "content": "Ayudas a analizar código."},
&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;{"role": "user", "content": "Revisa este script de Python en busca de cuellos de botella."}
&nbsp;&nbsp;&nbsp;&nbsp;&#93;
)

print(resp.choices&#91;0&#93;.message.content)</pre>
=============
</pre>
<p>
	 Si se necesita un modo sin razonamiento, en la documentación se muestra un parámetro separado thinking.type = disabled. Un punto práctico: ese modo puede ser útil no solo por velocidad, sino también por compatibilidad con herramientas, ya que la búsqueda web integrada ahora está en conflicto con el modo de razonamiento.
</p>
<h2>Para quién es Kimi K2.6 y quién debería esperar</h2>
<p>
	 Kimi K2.6 parece un candidato fuerte para tres tipos de tareas. Primero: asistentes de ingeniería internos que deben mantener un gran contexto de proyecto y no descomponerse en cadenas largas de acciones. Segundo: sistemas con agentes que usan navegador, ejecución de código, exploración y salida estructurada. Tercero: equipos que necesitan un modelo abierto con un nivel moderno de calidad, pero sin pasarse a ecosistemas cerrados.
</p>
<p>
	 ¿Para quién no es apropiado ahora mismo? Para quien busca un juguete local sencillo sin hardware caro. Para quien necesita un producto perfecto sin compromisos de infraestructura. Para quien busca un interlocutor universal «para todo» y no planea construir herramientas, canalizaciones y mecanismos de control alrededor del modelo. En esos escenarios las fortalezas de K2.6 simplemente no se desplegarán.
</p>
<h2>Conclusión principal sobre Kimi K2.6</h2>
<p>
	 Kimi K2.6 no es solo un eslogan de marketing vacío. Moonshot ha reunido una combinación poco común: pesos abiertos, contexto amplio, multimodalidad, fuerte enfoque en código y una apuesta decidida por tareas de agentes. Para desarrolladores que construyen cadenas de trabajo largas, el lanzamiento parece serio y merece pruebas detalladas.
</p>
<p>
	 Pero tampoco conviene sobrevalorar Kimi K2.6. Las afirmaciones sobre autonomía, subagentes e interfaces listas para producción suenan poderosas, pero detrás hay infraestructura pesada,&nbsp;un ecosistema de despliegue aún no del todo asentado, asperezas en las llamadas a herramientas y la inevitable necesidad de control humano. La evaluación honesta es: hoy Kimi K2.6 interesa sobre todo como herramienta de trabajo para equipos de ingeniería y pipelines de investigación, no como un botón mágico que «reemplace al desarrollo».
</p>
<blockquote>
	<p>
		 Antes de integrar Kimi K2.6 en un producto conviene comprobar cuatro cosas por separado: el coste real de trayectorias largas con agentes, la fiabilidad de las llamadas a herramientas en su stack, los requisitos de hardware o proveedor de inferencia y las condiciones de licencia para uso comercial a gran escala.
	</p>
</blockquote>
 <details open=""> <summary>FAQ</summary>
<p>
 <strong>¿Kimi K2.6 es un modelo abierto o cerrado?</strong><br>
	 Los pesos son abiertos, el modelo está disponible en Hugging Face y se distribuye bajo una Modified MIT License. No es del todo correcto llamar a la licencia «MIT completamente libre» debido al requisito adicional para servicios comerciales muy grandes.
</p>
<p>
 <strong>¿Se puede ejecutar Kimi K2.6 localmente?</strong><br>
	 Formalmente sí. En la práctica se necesita una infraestructura seria y hardware potente. Para la mayoría de equipos es más fácil y barato empezar vía API o con un proveedor de inferencia.
</p>
<p>
 <strong>¿Kimi K2.6 sirve solo para código?</strong><br>
	 No. Moonshot presenta el modelo como multimodal y orientado a agentes. Pero la programación, las cadenas de trabajo largas y el trabajo con herramientas son las áreas donde el lanzamiento resulta más convincente.
</p>
<p>
 <strong>¿Conviene pasarse a Kimi K2.6 en lugar de modelos cerrados?</strong><br>
	 Depende de la tarea. Si se necesitan pesos abiertos, contexto amplio y control del stack, Kimi K2.6 es muy atractiva. Si se busca el producto más pulido «listo para producción» desde el primer momento, modelos cerrados y grandes ecosistemas en la nube pueden ser más sencillos.
</p>
 </details>
<p>
	 Y una última advertencia sobria. Cualquier uso del modelo para automatización, procesamiento de datos, análisis de código y acciones con agentes debe cumplir la ley, las condiciones de la licencia, los requisitos sobre datos personales, derechos de autor y las normas internas de seguridad de la empresa. Con Kimi K2.6, como con cualquier modelo potente, la cuestión no es solo lo que puede hacer, sino también los límites de uso permitido.
</p><br /><a href="http://www.securitylab.lat/blog//BitshieldES/360469.php">More...</a>]]></description>
      <link>http://www.securitylab.lat/blog//BitshieldES/360469.php</link>
    </item>

    <item>
      <title>Deni Haipaziorov: Cripto «sucia»: cómo revisar tu monedero antes de transferir fondos a un exchange y reducir el riesgo de bloqueo</title>
      <description><![CDATA[<p>
	 A muchos la criptomoneda les sigue pareciendo&nbsp;un territorio de plena libertad. Envías monedas, recibes monedas y la vida continúa. En la práctica la situación es diferente desde hace tiempo. Los grandes exchanges revisan las transferencias entrantes, evalúan el origen de los fondos y con frecuencia piden que se confirme la procedencia de los activos. A veces el depósito se abona de inmediato, otras veces solicitan controles adicionales, y en ocasiones la cuenta entra en un prolongado modo «proporcione documentos». Hay poco de divertido en ese escenario.
</p>
<p>
	 Bajo el término «cripto sucia» se suelen entender las monedas que los sistemas analíticos vinculan con fondos robados, direcciones sancionadas, esquemas de fraude, mercados de la darknet, listas de bloqueo, hackeos y otras fuentes de alto riesgo. Las empresas de análisis enfatizan por separado que los modelos de riesgo consideran no solo las transferencias directas desde esas direcciones, sino también las conexiones indirectas a lo largo de la cadena de transacciones. Por eso un usuario puede recibir preguntas incluso cuando personalmente, por supuesto, no ha tenido relación con delincuentes.
</p>
<p>
	 El material que sigue no promete un botón mágico para «eliminar todos los riesgos». Los exchanges aplican reglas distintas y la decisión final la toma el equipo de cumplimiento de cada plataforma, no el usuario. Sin embargo, una comprobación previa bien hecha del monedero, del historial de ingresos y de los documentos reduce de forma notable la probabilidad de una sorpresa desagradable.
</p>
<h2>Por qué un exchange puede considerar problemático un depósito</h2>
<p>
	 Un exchange no mira solo la cantidad de la transferencia. El sistema analiza la dirección del remitente, la cadena de transacciones previas, el patrón de movimiento de los fondos, la vinculación con clústeres de riesgo conocidos y el comportamiento de la cuenta. Si el algoritmo detecta un rastro sospechoso, la plataforma puede solicitar la confirmación del origen de los activos o limitar temporalmente las operaciones. Para el usuario la situación resulta frustrante: ayer todo funcionaba y hoy le piden explicar de dónde vinieron las monedas.
</p>
<p>
	 Una causa adicional de riesgo está vinculada a los requisitos internacionales de prevención del blanqueo de capitales. El GAFI (FATF), en la guía actualizada sobre activos virtuales, vuelve a insistir en un enfoque basado en el riesgo en lugar de en formalidades por cumplir. Dicho de otro modo, los exchanges están obligados a examinar el origen de las transferencias con más atención que hace unos años. La presión regulatoria aumenta y los equipos de cumplimiento no se han vuelto más indulgentes.
</p>
<p>
	 La práctica de las grandes plataformas muestra una lógica similar. Kraken indica claramente que puede solicitar la comprobación del origen de los fondos para una transacción concreta y documentos que demuestren cómo se ganaron los fondos y cómo llegaron a la cuenta. Bybit describe la debida diligencia reforzada como una verificación adicional habitual cuando la actividad o los requerimientos regulatorios exigen un análisis más profundo. OKX explica por separado que el usuario puede necesitar proporcionar datos sobre la fuente de fondos y documentos del monedero o del exchange desde el que provino la transferencia. En la ayuda de Coinbase hay una sección dedicada a los documentos sobre fuente de fondos y fuente de capital.
</p>
<p>
	 Con mayor frecuencia, el riesgo aumenta por cuatro situaciones. Primera: las monedas pasaron por direcciones que el análisis ya marcó como peligrosas. Segunda: el monedero recibió fondos de exchanges dudosos, contrapartes P2P o servicios desconocidos. Tercera: el usuario mezcló en una misma dirección ingresos «limpios» y activos con historial comprometido. Cuarta: el exchange no puede entender la lógica económica de las operaciones y solicita documentos. A veces el problema no es delito, sino desorden. Al cumplimiento tampoco le gusta el desorden.
</p>
<h2>Cómo verificar el monedero antes de enviarlo al exchange</h2>
<p>
	 La autoevaluación básica no empieza con servicios de pago sino con un explorador de blockchain corriente. Hay que abrir la dirección en <a href="https://etherscan.io/" target="_blank">Etherscan</a>, <a href="https://tronscan.org/" target="_blank">TRONSCAN</a>, <a href="https://www.blockchair.com/" target="_blank">Blockchair</a> u otro explorador de la red correspondiente y revisar el historial de transferencias entrantes. Si entre los remitentes aparecen direcciones desconocidas, microtransferencias masivas, puentes extraños, exchanges sin reputación o largas cadenas a través de decenas de monederos intermedios, ya hay motivos para preocuparse.
</p>
<p>
	 El siguiente nivel es el cribado AML mediante un servicio especializado. El usuario carga la dirección, recibe una puntuación de riesgo y ve si el monedero está vinculado a listas de sanciones, fraude, robos, la darknet, plataformas ilegales o direcciones de listas negras. Esos servicios no ofrecen verdades absolutas, pero ayudan a detectar problemas antes de que la transferencia llegue al exchange. La lógica de la industria es precisamente esa: primero evaluar el riesgo de la dirección y luego aceptar los fondos. Plataformas analíticas como TRM describen explícitamente la verificación de monederos en tiempo real con decenas o cientos de parámetros de riesgo.
</p>
<p>
	 Es útil comprobar no solo la propia dirección sino también las de las contrapartes más cercanas. Si las monedas llegaron recientemente desde un monedero externo, resulta razonable revisar también el historial de esa dirección. El exchange a menudo evalúa no solo un paso hacia atrás, sino una cadena más larga. Chainalysis indica por separado que grandes volúmenes de fondos no están solo en direcciones claramente ilegales, sino también en monederos posteriores que recibieron una parte significativa de sus ingresos desde esas fuentes. Ahí es donde muchos se ven afectados: no hubo contacto directo con una dirección problemática, pero la conexión indirecta ya queda registrada.
</p>
<p>
	 Antes de transferir al exchange conviene responder a una pregunta simple. ¿Puede el titular del monedero explicar en cinco minutos el origen de cada ingreso importante? Si la respuesta es «más o menos lo recuerdo», el cumplimiento puede tener una mañana muy ajetreada. Mejor reunir con antelación la cronología: dónde se compraron los activos, desde qué plataforma se retiraron, qué intercambio se realizó, qué dirección pertenece al propio usuario y cuál a la contraparte.
</p>
<h2>Qué preparar con antelación para no buscarlo después en pánico</h2>
<p>
	 Los exchanges suelen solicitar no historias bonitas del tipo «lo gané honestamente», sino documentos. Kraken pide mostrar cómo se ganaron los fondos y, por separado, cómo los activos llegaron a la cuenta o al monedero. OKX publica ejemplos de pruebas aceptables, entre ellas extractos, documentos de inversiones, material sobre monederos externos y confirmaciones de transferencias. Binance y Coinbase también definen procedimientos específicos para confirmar la fuente de los fondos o del capital.
</p>
<p>
	 Conviene guardar por anticipado extractos de exchanges, capturas de pantalla de retiros con direcciones visibles, TXID de transferencias grandes, contratos de compraventa de activos, extractos bancarios por la compra de criptomonedas, documentos fiscales y cualquier papel que muestre el origen del dinero. Para un monedero externo es útil exportar el historial de transacciones y una captura de la interfaz donde se vea que la dirección la controla el propio usuario. Suena aburrido, pero funciona mejor que cualquier improvisación.
</p>
<p>
	 Una regla aparte se refiere a monederos ajenos. Si los activos llegan desde una dirección que no pertenece al titular de la cuenta, las preguntas casi siempre aumentan. Kraken, para cuentas empresariales, indica claramente que los depósitos y retiros de criptomonedas deben proceder de monederos propiedad del negocio y no de terceros. Para usuarios particulares la lógica es similar: cuanto menos eslabones ajenos haya en la cadena, más sencillo será demostrar el origen de los fondos.
</p>
<table>
<tbody>
<tr>
	<th>
		 Situación
	</th>
	<th>
		 Qué ve el exchange
	</th>
	<th>
		 Qué conviene hacer con antelación
	</th>
</tr>
<tr>
	<td>
		 Transferencia desde un monedero frío personal
	</td>
	<td>
		 Cadena de propiedad clara
	</td>
	<td>
		 Guardar el historial de ingresos y los TXID de entradas grandes
	</td>
</tr>
<tr>
	<td>
		 Transferencia tras compra a un particular
	</td>
	<td>
		 Contraparte de reputación desconocida
	</td>
	<td>
		 Contar con comprobante de la operación y del origen del dinero fiat
	</td>
</tr>
<tr>
	<td>
		 Ingresos mezclados desde direcciones distintas
	</td>
	<td>
		 Historial del monedero poco claro
	</td>
	<td>
		 No mezclar activos sospechosos y verificados en una misma dirección
	</td>
</tr>
<tr>
	<td>
		 Depósito grande puntual
	</td>
	<td>
		 Riesgo de cumplimiento elevado
	</td>
	<td>
		 Preparar documentos sobre la fuente de fondos antes de enviar
	</td>
</tr>
</tbody>
</table>
<h2>Cómo reducir el riesgo de bloqueo en la práctica</h2>
<p>
	 El enfoque más sensato es mantener un monedero separado para los depósitos a exchanges con un historial limpio y claro. No recibir allí transferencias accidentales, no aceptar monedas de contrapartes desconocidas y no usar la dirección como paso intermedio. Cuanto más corto y más claro sea el camino del activo, más tranquila será la vida.
</p>
<p>
	 Si al monedero en algún momento llegaron fondos cuestionables, es mejor no intentar «difuminar» el problema por direcciones nuevas. El análisis hace tiempo que puede mirar más allá de un solo salto. Resulta mucho más útil detenerse, comprobar la dirección mediante un servicio AML, evaluar la proporción de ingresos de riesgo y decidir si merece la pena enviar esos activos a una plataforma centralizada.
</p>
<p>
	 En transferencias grandes ayuda realizar una transacción de prueba por una cantidad pequeña. No hay garantías, pero ese paso a veces permite ver la reacción de la plataforma antes de enviar todo el volumen. Si tras la prueba el exchange solicita datos adicionales, conviene reunir el paquete de documentos de inmediato en lugar de discutir con soporte en plan «pero si la cartera es mía».
</p>
<p>
	 Otro principio útil: no confundir comodidad con anonimato. Para almacenar activos la privacidad puede ser una tarea aparte, pero al operar con un exchange centralizado la prioridad es poder demostrar el origen de los fondos. La plataforma no está obligada a creer en la palabra. Prefiere documentos, TXID, extractos y una cronología ordenada. No hay romanticismo en este enfoque, pero las posibilidades de bloqueo son menores.
</p>
<h2>Conclusión</h2>
<p>
	 Verificar el monedero antes de depositar en un exchange hace tiempo que se ha convertido en una higiene normal, no en paranoia. El mercado ha madurado, el cumplimiento se ha endurecido y las cadenas de transacciones se analizan con mucha más profundidad de lo que muchos imaginan. Por eso la principal protección del usuario hoy no está en la esperanza de «quizá pase», sino en un historial transparente de los activos, una estructura de monederos clara y pruebas del origen de los fondos reunidas con antelación.
</p>
<p>
	 Si lo decimos de forma muy práctica, el esquema es el siguiente. Primero comprobar la dirección y el historial de ingresos. Luego evaluar el riesgo mediante el cribado AML. Después reunir los documentos sobre las entradas importantes. Y solo después enviar los activos al exchange. Este enfoque no vuelve la criptomoneda estéril, pero reduce drásticamente la probabilidad de acabar en una conversación con soporte sobre «explique el origen de los fondos de los últimos dos años». Y esa conversación, como se sabe, despierta peor que una alarma.
</p>
<p>
</p>
<h2>Preguntas frecuentes</h2>
 <details> <summary>¿Qué significa «cripto sucia» en términos sencillos?</summary>
<p>
	 Así suelen llamarse las monedas que los sistemas analíticos vinculan con fuentes de alto riesgo: robos, fraudes, direcciones sancionadas, darknet, listas de bloqueo y otras categorías sospechosas.
</p>
 </details> <details> <summary>¿Se puede verificar un monedero antes de enviarlo al exchange?</summary>
<p>
	 Sí. Primero se revisa el historial de la dirección mediante un explorador de blockchain y, si es necesario, se utiliza un servicio AML que muestra el perfil de riesgo del monedero y sus vínculos con clústeres peligrosos.
</p>
 </details> <details> <summary>¿Por qué el exchange bloqueó un depósito si el monedero pertenece al titular de la cuenta?</summary>
<p>
	 Porque el exchange evalúa no solo la titularidad de la dirección, sino también el origen de los fondos, el historial de transacciones previas, las contrapartes y la estructura general del movimiento de activos.
</p>
 </details> <details> <summary>¿Qué documentos puede solicitar un exchange para confirmar la fuente de fondos?</summary>
<p>
	 Normalmente piden extractos, capturas de pantalla de retiros desde otro exchange, TXID de transferencias, comprobantes de titularidad del monedero, documentos salariales, de inversiones, de venta de activos u otros papeles que demuestren el origen del dinero.
</p>
 </details> <details> <summary>¿Cómo reducir el riesgo de que bloqueen criptomonedas en un exchange?</summary>
<p>
	 Es preferible usar un monedero separado con historial limpio, no mezclar activos sospechosos y verificados, conservar las pruebas de las transferencias importantes y comprobar la dirección antes de enviar el depósito.
</p>
 </details><br /><a href="http://www.securitylab.lat/blog//XiaomiFanES/360467.php">More...</a>]]></description>
      <link>http://www.securitylab.lat/blog//XiaomiFanES/360467.php</link>
    </item>

    <item>
      <title>Room Bloger: VLESS: protocolo de tunelización — qué es, cómo funciona y para quién está indicado</title>
      <description><![CDATA[<p>
	 Formalmente, VLESS sigue siendo un protocolo sin estado y ligero del ecosistema Xray que usa UUID para identificar al cliente. Pero en la configuración real casi siempre aparece la combinación VLESS + REALITY + flow 
====code====
<pre>xtls-rprx-vision</pre>
=============
. La documentación de Project X describe REALITY como «el esquema de cifrado de transporte más seguro», y al combinarse con Vision promete una mejora notable en el rendimiento.
</p>
<p>
	 Por eso es más correcto describir VLESS no como una «tubería protegida» lista para usar, sino como la capa superior de una arquitectura. La imagen real de la conexión la determinan el núcleo Xray o sing-box, el transporte, el puerto, el dominio, la configuración de TLS o REALITY, y también la configuración del cliente con fingerprint, shortId y claves. VLESS es ligero porque no intenta hacerlo todo a la vez. Esa arquitectura es útil cuando se necesita un túnel controlado en la propia infraestructura, y no solo una VPN universal para toda la máquina. <a href="https://github.com/XTLS/Xray-core">Xray-core</a> <a href="https://sing-box.sagernet.org/configuration/outbound/vless/">sing-box: VLESS outbound</a>
</p>
<h2>Características técnicas</h2>
<p>
</p>
<p>
	 El papel principal de REALITY no es «añadir otro parámetro de moda», sino reemplazar el esquema TLS habitual por un modo más especializado dentro del ecosistema Xray. En la documentación oficial de Project X, REALITY se describe como una tecnología propia de Xray que modifica TLS, usa un ajuste del ClientHello similar a uTLS y hace que el perfil externo de la conexión sea más parecido al tráfico web habitual. La documentación enfatiza además que REALITY solo cambia la parte TLS y, en teoría, es compatible con la mayoría de combinaciones de TLS.
</p>
<p>
	 A nivel de configuración, el esquema dejó hace tiempo el primitivo «dirección, puerto, UUID». Para servidor y cliente son importantes 
====code====
<pre>target</pre>
=============
, 
====code====
<pre>serverNames</pre>
=============
, 
====code====
<pre>privateKey</pre>
=============
, la clave del cliente que antes se llamaba 
====code====
<pre>publicKey</pre>
=============
 y que ahora aparece renombrada en la documentación, 
====code====
<pre>shortIds</pre>
=============
, 
====code====
<pre>fingerprint</pre>
=============
, a veces 
====code====
<pre>spiderX</pre>
=============
 y las restricciones por versión del cliente. Project X indica además que el 
====code====
<pre>target</pre>
=============
 del servidor antes se llamaba 
====code====
<pre>dest</pre>
=============
, y que el 
====code====
<pre>shortId</pre>
=============
 sirve para distinguir clientes. También se señala que 
====code====
<pre>fingerprint</pre>
=============
 es obligatorio, y la lista de fingerprints compatibles incluye perfiles de navegador como 
====code====
<pre>chrome</pre>
=============
, 
====code====
<pre>firefox</pre>
=============
 y 
====code====
<pre>safari</pre>
=============
.
</p>
<p>
	 Hay una aclaración importante sobre el tiempo. La fórmula «VLESS no depende del tiempo del sistema» es técnicamente cierta solo para la autenticación propia de VLESS, a diferencia de VMess. Pero en una configuración real no se pueden dejar los relojes del servidor y del cliente «al azar». Primero, REALITY tiene el parámetro 
====code====
<pre>maxTimeDiff</pre>
=============
 que establece la tolerancia de diferencia horaria. Segundo, cualquier comprobación TLS depende del periodo de validez del certificado: el sistema debe ver la fecha actual entre 
====code====
<pre>Valid from</pre>
=============
 y 
====code====
<pre>Valid to</pre>
=============
. Incluso Microsoft en su documentación sobre certificados TLS recuerda esta comprobación. En pocas palabras, el UUID no depende del reloj, pero un túnel operativo sí.
</p>
<h2>Configuración y núcleo</h2>
<p>
	 En la práctica, el administrador configura no el protocolo VLESS aislado, sino toda una combinación. Se necesita el núcleo —normalmente Xray-core o sing-box—, una configuración de servidor en JSON o YAML, bloques de entrada y salida, dominio o dirección, puerto, flow, claves, y luego el cliente que sepa leer esa configuración. En la sección VLESS de Xray aparecen 
====code====
<pre>address</pre>
=============
, 
====code====
<pre>port</pre>
=============
, 
====code====
<pre>id</pre>
=============
, 
====code====
<pre>flow</pre>
=============
. En sing-box para VLESS también existe 
====code====
<pre>flow</pre>
=============
 con el valor 
====code====
<pre>xtls-rprx-vision</pre>
=============
, ajustes de TLS, multiplex y transport. <a href="https://xtls.github.io/en/config/outbounds/vless.html">Project X: outbound VLESS</a> <a href="https://sing-box.sagernet.org/configuration/outbound/vless/">sing-box: VLESS</a> <a href="https://sing-box.sagernet.org/configuration/shared/tls/">sing-box: TLS</a>
</p>
<p>
	 Surge además un aspecto práctico: los usuarios buscan no solo la documentación de Project X, sino también combinaciones de cliente que funcionen. En 2026, el repositorio activo de v2rayN indica que admite Xray y sing-box en Windows, Linux y macOS. Nekoray, aunque fue un GUI popular, ya no puede considerarse igualmente «activo»: el repositorio oficial está archivado desde marzo de 2025 y solo está disponible en modo lectura. Por esa razón, en un artículo reciente conviene enlazar a Xray-core, sing-box y al v2rayN vigente, y mencionar Nekoray con la aclaración de que el proyecto no se desarrolla. <a href="https://github.com/2dust/v2rayN">v2rayN</a> <a href="https://github.com/MatsuriDayo/nekoray">Nekoray archived</a>
</p>
<table>
<tbody>
<tr>
	<th>
		 Esquema
	</th>
	<th>
		 Dónde destaca
	</th>
	<th>
		 Qué se configura
	</th>
	<th>
		 Principal inconveniente
	</th>
</tr>
<tr>
	<td>
		 VLESS + REALITY + Vision
	</td>
	<td>
		 Ajuste fino del perfil de conexión, alta flexibilidad, buen rendimiento en el ecosistema Xray
	</td>
	<td>
		 Núcleo, dominio, puerto, claves, shortId, fingerprint, flow, configuración del cliente
	</td>
	<td>
		 Alto coste si hay un error en la configuración y más trabajo manual
	</td>
</tr>
<tr>
	<td>
		 VLESS + TLS convencional
	</td>
	<td>
		 Esquema clásico más comprensible, más fácil de explicar con un certificado estándar
	</td>
	<td>
		 Certificado, dominio, puerto, transport, parámetros TLS
	</td>
	<td>
		 En el ecosistema Xray ya parece una opción menos actual
	</td>
</tr>
<tr>
	<td>
		 WireGuard
	</td>
	<td>
		 VPN completo para un dispositivo, una subred o una oficina
	</td>
	<td>
		 Interfaz, rutas, claves, peers
	</td>
	<td>
		 Menos flexibilidad a nivel de aplicación
	</td>
</tr>
</tbody>
</table>
<h2>Escenarios de uso y comparación con alternativas</h2>
<p>
	 VLESS con REALITY es adecuado cuando al propietario le importan el control y la personalización. Esta pila sirve para infraestructura self-hosted, acceso remoto a un panel o API interna, publicación de servicios a través de un servidor propio, enrutamiento diferenciado por aplicaciones y una construcción de red cuidadosa donde el administrador sabe lo que hace. Para un principiante que quiere pulsar un botón y olvidarse del tema, el esquema suele ser excesivo. Se puede cometer un error en cualquier paso: elegir el puerto equivocado, poner un dominio incorrecto en 
====code====
<pre>serverName</pre>
=============
, romper el flow, olvidar la sincronización horaria, confundir el shortId o instalar un cliente que quede desfasado respecto al formato de configuración actual.
</p>
<p>
	 VLESS en una infraestructura nueva se percibe como más ligero y más limpio. WireGuard es más fácil de recomendar para el escenario clásico de VPN, cuando hace falta conectar oficinas, subredes o todo el sistema en conjunto. En cambio, VLESS + REALITY se elige no por la velocidad sino por una arquitectura controlada, donde el núcleo, el transporte y la configuración se pueden adaptar a la tarea concreta.
</p>
 <details> <summary>¿Se necesita VLESS sin REALITY?</summary>
<p>
	 A veces sí, pero como opción base para nuevas instalaciones la combinación sin REALITY ya resulta más bien una excepción. En la documentación actual de Project X, REALITY se incluye en el conjunto central de ajustes de transporte, y la combinación con Vision se presenta como el modo más potente para este ecosistema.
</p>
 </details> <details> <summary>¿Por qué se dice que VLESS es ligero si la configuración del esquema es compleja?</summary>
<p>
	 Porque la ligereza se refiere al propio protocolo VLESS, no a todo el envoltorio. La complejidad aparece a nivel del núcleo, transporte, claves, shortId, dominio, lógica de certificados y la aplicación cliente.
</p>
 </details> <details> <summary>¿Es cierto que VLESS no depende del tiempo?</summary>
<p>
	 Para la autenticación propia de VLESS, sí, a diferencia de VMess. Pero un esquema operativo con TLS o REALITY sigue requiriendo tiempo correcto en servidor y cliente; de lo contrario pueden aparecer errores por la verificación del certificado o por las limitaciones de 
====code====
<pre>maxTimeDiff</pre>
=============
.
</p>
 </details> <details> <summary>¿Qué clientes revisar en 2026?</summary>
<p>
	 Para un ecosistema activo, conviene mirar Xray-core, sing-box y el v2rayN vigente. Nekoray sigue siendo conocido y aparece en guías, pero su repositorio oficial está archivado, por lo que no conviene considerarlo el cliente moderno principal.
</p>
 </details> <details> <summary>¿A quién no le conviene este esquema?</summary>
<p>
	 A quienes no quieren lidiar con configuraciones JSON o YAML, claves, dominios, puertos, registro y diagnóstico de red. En ese caso la complejidad del mantenimiento pronto supera las ventajas de la flexibilidad.
</p>
 </details><br /><a href="http://www.securitylab.lat/blog//paragraphES/360460.php">More...</a>]]></description>
      <link>http://www.securitylab.lat/blog//paragraphES/360460.php</link>
    </item>

  </channel>
</rss>