DS Technologies Inc
Administración de KAFKA
Tiempo completo • Conshohocken, PA
Sobre NOSOTROS: Somos una empresa que ofrece servicios y soluciones de TI innovadoras y transformadoras. Nos apasiona ayudar a nuestros clientes a alcanzar sus objetivos y superar sus expectativas. Nos esforzamos por ofrecer la mejor experiencia posible a nuestros clientes y empleados. Estamos comprometidos con la mejora continua y la innovación, y siempre estamos buscando formas de mejorar nuestros servicios y soluciones. Creemos en trabajar de forma colaborativa con nuestros clientes y empleados para lograr el éxito.
DS Technologies Inc está buscando un puesto de Administrador de KAFKA para uno de nuestros principales clientes.
Título del puesto: Administrador KAFKA
Ubicación: Conshohocken, PA (En situ)
Tipo de puesto: Contrato
Solo W2
Necesitamos urgentemente el siguiente puesto para nuestro cliente IBM/Cencora. Por favor, envíe solo candidatos preseleccionados, con vídeo y entrevistados.
El límite de tarifas para este puesto es de 60 - 65 dólares. Y el lugar de trabajo es Conshohocken, PA. Este NO es un puesto remoto.
Administración de KAFKA -
'• 5+ años de experiencia práctica con Kafka/Confluent en producción.
• Fuerte experiencia con:
o Configuración SSL/TLS de extremo a extremo en ecosistemas Kafka
o Configuración de autorización RBAC y administración operativa
o Diseño para HA/redundancia y escalado para crecimiento
o Monitorización/alerta con Prometheus & Grafana, además de herramientas operativas como New Relic
o Pruebas y ajustes de rendimiento (productores/consumidores, brokers, Connect, infraestructura)
• Experiencia demostrada en la implementación:
o Conector Premium de CDC Oracle Confluent
o De la confluencia a ADLS Gen2 (ADLS2)
• Competencia con Azure DevOps, Git y construcción de pipelines CI/CD.
• Conocimiento práctico de Apache Flink y experiencia práctica escribiendo Kafka Streams.
Responsabilidades clave:
• Seguridad y Control de Acceso
o Configurar SSL/TLS de extremo a extremo entre componentes Kafka/Confluent e integraciones con clientes.
o Implementar y gestionar RBAC para autorizaciones, cuentas de servicio y acceso con privilegios mínimos.
• Alta disponibilidad, redundancia y conmutación por error
o Configurar componentes principales para redundancia y resiliencia a la conmutación por error (brokers/controladores, Connect, Registro de Esquemas, etc.).
o Diseñar e implementar un clúster Kafka de recuperación ante desastres (DR), incluyendo estrategia de replicación, pruebas de conmutación por error y libros de ejecución alineados con RPO/RTO.
• Escala y crecimiento futuro
o Planificar e implementar la escalabilidad de la plataforma para el crecimiento futuro (estrategia de temas/particiones, retención, rendimiento, planificación de capacidad).
o Establecer prácticas operativas sostenibles para el uso y la gobernanza multiequipo.
• Monitorización, alerta y operaciones
Configura monitorización y alertas para mensajes en streaming y salud de la plataforma usando Prometheus & Grafana.
o Integrar paneles/alertas de New Relic para apoyar la visibilidad operativa, la respuesta a incidentes y métricas de salud del servicio.
• Ingeniería de Rendimiento
o Realizar pruebas de rendimiento y ajustar los componentes Kafka/Confluent para obtener un rendimiento óptimo, latencia y estabilidad.
o Solucionar problemas complejos de producción entre brokers, redes, almacenamiento, Connect y cargas de trabajo de clientes.
• Conectores e integración de datos
o Implementar y dar soporte al Confluent Oracle Premium CDC Connector (configuración, desplazamientos, evolución del esquema, manejo de errores, operaciones).
o Implementar y dar soporte a Confluent Sink Connector para ADLS2 (Azure Data Lake Storage Gen2) con estrategias fiables de entrega y particionamiento.
• Desarrollo en streaming
o Construir y soportar el procesamiento de flujos usando Apache Flink (configuración de trabajos, patrones de despliegue, operacionalización).
o Desarrollar aplicaciones de flujos Kafka (diseño de topología, almacenes de estados, garantías exactamente/procesamiento según sea necesario).
• DevOps y Automatización
Utiliza Azure DevOps con integración en Git para control de versiones, revisiones y gestión de cambios.
o Desplegar y gestionar recursos en la nube usando Terraform y Ansible.
o Construir y mantener pipelines CI/CD para la configuración de plataformas, conectores y trabajos de streaming entre entornos.
• Asignación de costes
o Soporte para cálculos de contracargo/showback para el uso de Kafka (por ejemplo, rendimiento, almacenamiento, particiones, utilización de conectores/recursos) y reportes relacionados.
Cualificaciones preferidas:
• Experiencia en la implementación y prueba de arquitecturas de clústeres y runbooks operativos de Kafka DR.
• Familiaridad con los patrones de gobernanza empresarial (multiarrendamiento, estándares de nombres, cuotas, gobernanza de esquemas).
• Experiencia definiendo la medición de consumo para permitir una devolución de cargo/showback fiable.
Expectativas adicionales:
• Dominio del uso de la CLI de Linux (preferiblemente RHEL/SLES).
• Capacidad para participar en una rotación de guardia y proporcionar apoyo oportuno en incidentes (si es necesario).
• Sólidas habilidades de documentación y comunicación con los grupos de interés en los equipos de ingeniería, operaciones y producto.
• Capacidad para crear patrones/plantillas de diseño, proporcionar apoyo al desarrollo y realizar sesiones de transferencia de conocimiento para la incorporación de nuevos casos de uso y la modernización de los existentes.
Ubicación: Conshohocken, PA (En situ)
Tipo de puesto: Contrato
Solo W2
Necesitamos urgentemente el siguiente puesto para nuestro cliente IBM/Cencora. Por favor, envíe solo candidatos preseleccionados, con vídeo y entrevistados.
El límite de tarifas para este puesto es de 60 - 65 dólares. Y el lugar de trabajo es Conshohocken, PA. Este NO es un puesto remoto.
Administración de KAFKA -
'• 5+ años de experiencia práctica con Kafka/Confluent en producción.
• Fuerte experiencia con:
o Configuración SSL/TLS de extremo a extremo en ecosistemas Kafka
o Configuración de autorización RBAC y administración operativa
o Diseño para HA/redundancia y escalado para crecimiento
o Monitorización/alerta con Prometheus & Grafana, además de herramientas operativas como New Relic
o Pruebas y ajustes de rendimiento (productores/consumidores, brokers, Connect, infraestructura)
• Experiencia demostrada en la implementación:
o Conector Premium de CDC Oracle Confluent
o De la confluencia a ADLS Gen2 (ADLS2)
• Competencia con Azure DevOps, Git y construcción de pipelines CI/CD.
• Conocimiento práctico de Apache Flink y experiencia práctica escribiendo Kafka Streams.
Responsabilidades clave:
• Seguridad y Control de Acceso
o Configurar SSL/TLS de extremo a extremo entre componentes Kafka/Confluent e integraciones con clientes.
o Implementar y gestionar RBAC para autorizaciones, cuentas de servicio y acceso con privilegios mínimos.
• Alta disponibilidad, redundancia y conmutación por error
o Configurar componentes principales para redundancia y resiliencia a la conmutación por error (brokers/controladores, Connect, Registro de Esquemas, etc.).
o Diseñar e implementar un clúster Kafka de recuperación ante desastres (DR), incluyendo estrategia de replicación, pruebas de conmutación por error y libros de ejecución alineados con RPO/RTO.
• Escala y crecimiento futuro
o Planificar e implementar la escalabilidad de la plataforma para el crecimiento futuro (estrategia de temas/particiones, retención, rendimiento, planificación de capacidad).
o Establecer prácticas operativas sostenibles para el uso y la gobernanza multiequipo.
• Monitorización, alerta y operaciones
Configura monitorización y alertas para mensajes en streaming y salud de la plataforma usando Prometheus & Grafana.
o Integrar paneles/alertas de New Relic para apoyar la visibilidad operativa, la respuesta a incidentes y métricas de salud del servicio.
• Ingeniería de Rendimiento
o Realizar pruebas de rendimiento y ajustar los componentes Kafka/Confluent para obtener un rendimiento óptimo, latencia y estabilidad.
o Solucionar problemas complejos de producción entre brokers, redes, almacenamiento, Connect y cargas de trabajo de clientes.
• Conectores e integración de datos
o Implementar y dar soporte al Confluent Oracle Premium CDC Connector (configuración, desplazamientos, evolución del esquema, manejo de errores, operaciones).
o Implementar y dar soporte a Confluent Sink Connector para ADLS2 (Azure Data Lake Storage Gen2) con estrategias fiables de entrega y particionamiento.
• Desarrollo en streaming
o Construir y soportar el procesamiento de flujos usando Apache Flink (configuración de trabajos, patrones de despliegue, operacionalización).
o Desarrollar aplicaciones de flujos Kafka (diseño de topología, almacenes de estados, garantías exactamente/procesamiento según sea necesario).
• DevOps y Automatización
Utiliza Azure DevOps con integración en Git para control de versiones, revisiones y gestión de cambios.
o Desplegar y gestionar recursos en la nube usando Terraform y Ansible.
o Construir y mantener pipelines CI/CD para la configuración de plataformas, conectores y trabajos de streaming entre entornos.
• Asignación de costes
o Soporte para cálculos de contracargo/showback para el uso de Kafka (por ejemplo, rendimiento, almacenamiento, particiones, utilización de conectores/recursos) y reportes relacionados.
Cualificaciones preferidas:
• Experiencia en la implementación y prueba de arquitecturas de clústeres y runbooks operativos de Kafka DR.
• Familiaridad con los patrones de gobernanza empresarial (multiarrendamiento, estándares de nombres, cuotas, gobernanza de esquemas).
• Experiencia definiendo la medición de consumo para permitir una devolución de cargo/showback fiable.
Expectativas adicionales:
• Dominio del uso de la CLI de Linux (preferiblemente RHEL/SLES).
• Capacidad para participar en una rotación de guardia y proporcionar apoyo oportuno en incidentes (si es necesario).
• Sólidas habilidades de documentación y comunicación con los grupos de interés en los equipos de ingeniería, operaciones y producto.
• Capacidad para crear patrones/plantillas de diseño, proporcionar apoyo al desarrollo y realizar sesiones de transferencia de conocimiento para la incorporación de nuevos casos de uso y la modernización de los existentes.
Somos un empleador con igualdad de oportunidades y todos los candidatos calificados recibirán consideración por el empleo sin distinción de raza, color, religión, sexo, origen nacional, estado de discapacidad, estado de veterano protegido o cualquier otra característica protegida por la ley.