Manifiesto por la responsabilidad
Solicitudes de empleo AI

Solicitudes de empleo responsables de IA con JobCopilot

Nuestras creencias

En JobCopilot creemos que la IA puede capacitar a los solicitantes de empleo - no sustituirlos.

La IA debe amplificar la intención humana, no actuar por sí sola. Las solicitudes de empleo son decisiones personales que afectan a vidas reales, empresas reales y carreras reales.

Defendemos Responsable AI Solicitudes de empleo, donde la automatización respete la elección humana y la confianza del empresario.

 

Nuestra visión

Liderar el movimiento mundial para definir cómo funcionan los asistentes laborales de IA de forma ética, transparente y responsable.

Imaginamos un futuro en el que la IA ayude a candidatos y empleadores de forma precisa, transparente, justa y mutuamente beneficiosa.

 

Nuestros principios

  1. Humano en el bucle: Cada usuario debe mantener el control: la IA sugiere, pero los humanos deciden.

  2. Transparencia: Los usuarios deben entender qué hace la IA, a qué trabajos se aplica y por qué.

  3. Emparejamiento justo: La IA sólo debe presentarse a puestos para los que el candidato esté razonablemente cualificado.

  4. Integridad de la aplicación: Nada de solicitudes masivas, envíos de spam o solicitudes duplicadas.

  5. Respeto del empresario: Limitar la frecuencia con la que la IA se aplica a la misma empresa, preservando la confianza del empresario.

  6. Protección de datos: Los usuarios deben decidir con qué sitios se comparten sus datos.

  7. Rendición de cuentas: Cada acción de la IA debe ser rastreable y revisable por el usuario.

  8. Dignidad del usuario: La IA debe representar a los candidatos con veracidad, sin exageraciones ni falsificaciones.

Marco para la responsabilidad
Asistentes de empleo AI

Este marco establece principios para la creación y el funcionamiento de asistentes de empleo con inteligencia artificial que actúen de forma ética, transparente y en interés tanto de los demandantes de empleo como de los empleadores. Su objetivo es garantizar que la automatización de las solicitudes de empleo fomente la equidad y la eficiencia, y no el spam o la explotación, promoviendo el control del usuario, la protección de datos, la explicabilidad y la responsabilidad.

El objetivo es crear un ecosistema de confianza en el que las herramientas de empleo de IA ayuden a las personas a presentar solicitudes de forma más eficaz, preservando al mismo tiempo la autenticidad, el consentimiento y la integridad profesional.

 

1. Control y consentimiento del usuario

  • El usuario debe tener la opción de revisar y editar cada solicitud antes de enviarla.
  • Opción para controlar el nivel de automatización (por ejemplo, “sólo sugerir”, “aplicar con confirmación”, “autoaplicar para trabajos preaprobados”).
  • Registros de consentimiento claros para cada acción de IA.

 

2. Criterios de adecuación y aplicación

  • La IA debe realizar comprobaciones mínimas de relevancia antes de presentar la solicitud (competencias, ubicación, puesto, experiencia).
  • Establecer un puntuación mínima umbral (por ejemplo, 50%) para evitar solicitudes irrelevantes.
  • Prohibir el comportamiento de “aplicación masiva” (por ejemplo, limitar a 50 aplicaciones/día).
  • Aplique la norma de “no más de 3 aplicaciones por empresa y por usuario durante 6 meses”.
  • Permitir que los empresarios opten por la exclusión voluntaria o fijen sus propios límites de tarifa.

 

3. Transparencia y explicabilidad

  • Toda aplicación generada por IA debe incluir un registro rastreable: cuándo, cómo y por qué se creó.
  • Los usuarios pueden ver la justificación de la coincidencia (por ejemplo, “Coincidencia 82% basada en su CV y experiencia con Python”).

 

4. Privacidad y seguridad de los datos

  • Cumplimiento del GDPR, la PDPA y otros marcos de protección de datos.
  • Límites explícitos al uso de datos: sólo para aplicaciones y cotejos.
  • Tratamiento seguro de CV y cartas de presentación; eliminación previa solicitud.
  • No se comparten datos personales con bolsas de trabajo sin el consentimiento del usuario.

 

5. 5. Relaciones con los empresarios

  • Apoyar API que permitan a los empleadores verificar la autenticidad de las solicitudes.
  • Permitir que los empleadores den su opinión para mejorar la precisión de la búsqueda de empleo mediante IA.

 

6. Conformidad y certificación

  • Definir un “Certificación de asistente de trabajo responsable de IA” - plataformas pueden ser evaluadas y certificadas.
  • Incluye un código de conducta y una lista de control para la autoevaluación.
  • Exigir auditorías periódicas por parte de terceros.
  • Proporcionar un modelo de gobernanza abierto (por ejemplo, un comité directivo con universidades, bolsas de trabajo y reguladores).

 

7. Educación de los usuarios y ética

  • Proporcionar una incorporación clara que explique los riesgos y las responsabilidades de las aplicaciones asistidas por IA.
  • Mostrar directrices éticas en la interfaz de la aplicación (por ejemplo, “Tu IA sólo se aplicará a empleos relevantes”).
  • Ofrezca tutoriales sobre cómo utilizar la IA de forma responsable en la búsqueda de empleo.

 

8. Responsabilidad y reparación

  • Registros completos de cada acción (trabajo visto, emparejado, aplicado).
  • Los empresarios pueden denunciar el uso indebido o el spam a la plataforma.

 

9. 9. Mejora continua

  • Publicar periódicamente informes de transparencia (por ejemplo, tasa media de concordancia, % de aplicaciones revisadas por humanos).
  • Recoger las opiniones de usuarios y empresarios para mejorar las normas éticas.
  • Participar en debates multipartitos sobre IA y ética del empleo.

Este marco es un trabajo en curso. Danos tu opinión contactando con nosotros en Linkedin.

AUTORES

Emmanuel C. - Director General de JobCopilot

Emmanuel Crouy

Cofundador de JobCopilot

Conéctate en LinkedIn

Alexander Chukovski

Alexander Chukovski

Consultor de AI y HRtech

Conéctate en LinkedIn

Oras Al-Kubaisi

Oras Al-Kubaisi

Consultor AI

Conéctate en LinkedIn