Detectar un fallo en el desarrollo de la herramienta ChatGPT puede ser retribuido con una suma de hasta veinte mil dólares americanos, conforme lo comunicado últimamente por la compañía OpenAI. “Bug Bounty Program” pretende motivar a sus participantes para encontrar e informar sobre vulnerabilidades de seguridad en los sistemas de la firma. Esto incluye, evidentemente, al popular chatbot de inteligencia artificial tan usado en estos días.
El programa apunta a estudiosos de seguridad, hackers éticos y entusiastas de la tecnología. El dinero que se ofrece como gratificación por el descubrimiento tiene un rango que va desde los doscientos dólares americanos, para “hallazgos de baja gravedad”, hasta lo veinte mil, para “descubrimientos excepcionales”.
Al presentar la iniciativa, la compañía se mostró siendo consciente de la posible presencias de errores:
“Esta iniciativa es esencial para nuestro compromiso de desarrollar una IA segura y avanzada. A medida que creamos tecnología y servicios que son seguros, confiables y confiables, necesitamos su ayuda. La misión de OpenAI es crear sistemas de inteligencia artificial que beneficien a todos. Con ese fin, invertimos mucho en investigación e ingeniería para garantizar que nuestros sistemas de IA estén seguros y protegidos. Sin embargo, como con cualquier tecnología compleja, entendemos que pueden surgir vulnerabilidades y defectos”.
Las personas interesadas en aportar a la propuesta pueden presentar sus análisis en la plataforma de ciberseguridad, Bugcrowd:
“El programa es una forma de reconocer y recompensar los valiosos conocimientos de los investigadores de seguridad que contribuyen a mantener nuestra tecnología y nuestra empresa seguras. Le invitamos a informar de las vulnerabilidades, errores o fallas de seguridad que descubra en nuestros sistemas”.
Características de la cooperación
Para esta propuesta, OpenAI se asoció con Bugcrowd, una plataforma líder de recompensas por fallos. El objetivo es que la interfaz especializada pueda administrar el proceso de envío y recompensa, que está desarrollado para asegurar una experiencia optimada para todos y cada uno de los participantes. La plataforma Bugcrowd contó lo aspectos a considerar por los estudiosos que se sumen a la propuesta:
- Proporcionar protección de puerto seguro para la investigación de vulnerabilidades.
- Cooperar con el partícipe para entender y validar el informe, asegurando una rápida contestación inicial a la presentación.
- Remediar las vulnerabilidades ratificadas de forma oportuna.
- Reconocer y dar crédito a la contribución a la mejora de seguridad. Siempre que se trate de una vulnerabilidad única que conduce a un cambio de código o configuración.
OpenAI anima a estudiosos a poner manos a la obra:
“Al compartir sus hallazgos, desempeñará un papel crucial para hacer que nuestra tecnología sea más segura para todos”.
Los inconvenientes que no aplican en el programa
La empresa remarcó que brindará una gratificación monetaria por fallos de software en su API (interfaz de programación de aplicaciones) y otros servicios relacionados. No obstante, presentó un listado de aquellos inconvenientes que van a estar fuera del alcance del programa.
- Jailbreaks/desvíos de seguridad (p. ej. DAN y avisos relacionados)
- Conseguir que el sistema afirme cosas malas
- Conseguir que el sistema te afirme de qué forma hacer cosas malas
- Conseguir que el sistema escriba código malicioso para ti
Estas advertencias intentan eludir que alguien produzca código o texto malicioso con la meta de mentir al programa AI a fin de que viole sus reglas y, con esto, conseguir una recompensa monetaria.