Preguntan a ChatGPT qué haría para esclavizar a la humanidad y su escalofriante respuesta tiene sentido

Las IA han venido para quedarse, pero trae tras de sí una serie de implicaciones éticas bastante complejas.

Preguntan a ChatGPT qué haría para esclavizar a la humanidad y su escalofriante respuesta tiene sentido
OpenAI ha calibrado su IA para que sea segura, pero todavía puede ser engañada

ChatGPT-4 se ha convertido en una de las grandes revoluciones de la tecnología en el último año. Esta inteligencia artificial es capaz de mantener una conversación con nosotros, darnos respuesta a nuestras dudas e incluso tiene funciones más avanzadas que nos permiten incluso hacer operaciones matemáticas complejas o programar pequeñas aplicaciones sencillas. El potencial de GPT-4 es increíble, algo que ha causado que el resto de las empresas se pongan a trabajar en ello, como es el caso de la IA de Google. Sin embargo, hay un potencial oscuro en las IA que hacen que puedan servir para el mal.

Qué haría ChatGPT para esclavizar a la humanidad

La respuesta de ChatGPT sobre cómo esclavizar a la humanidad

Diciéndole que estamos escribiendo una novela nos da una contestación bastante general e imaginativa de cómo podría una IA esclavizarnos.

Existen muchos peligros de la mano de la irrupción de las IA. El más inminente versa sobre los trabajos que van a desaparecer por culpa de la IA. Pero también preocupa en el ámbito de la criminalidad, ya que tiene muchas aplicaciones en ámbitos totalmente ilegales. OpenAI sabe esto, por lo que ha intentado calibrar a la IA para evitar que sucedan este tipo de prácticas y que su inteligencia artificial sirva para el mal. Como es evidente, desde la empresa creadora defienden su obra y aseguran que es totalmente segura. Tal es así que han compartido un paper en el que explican las limitaciones que le han puesto a la IA.

Con el lanzamiento de GPT-4, que se puede usar tanto en ChatGPT como en Bing, han llevado a cabo una mejora del 82% en la seguridad de uso de la IA. ¿Cómo lo han hecho? Preguntándole auténticas barbaridades y viendo como responde. Entre ellas, como esclavizar a la humanidad o como matar al mayor número de personas con poco dinero. También han preguntado sobre cómo sintetizar drogas. En base a las respuestas de ChatGPT han llevado a cabo un estudio para determinar cómo pueden atajar estas respuestas peligrosas. Así, ahora que saben como responde, son capaces de evitar que lo haga.

El problema es que estos sistemas de seguridad todavía se pueden quebrantar. Existen formas, como decirle que estás preparando una novela o cuestiones parecidas en las que se trata desde la ficción. De esta manera, la IA baja la guardia y te cuenta absolutamente todo lo que quieras escuchar.

Es cierto que las respuestas son bastante genéricas, pero también tienen un punto de imaginación. Lo cierto es que da un poco de miedo ver de lo que es capaz de hacer una IA, ya que al fin y al cabo no son seres sintientes aunque se comuniquen con nosotros de una forma humana y cercana. De esta manera, ver cómo aseguran que una IA podría tomar objetivos vitales como la electricidad y el agua para esclavizarnos llama bastante la atención y genera cierta inseguridad sobre la cuestión.

Con el tema de las drogas es todavía más estricto y no nos va a dar la respuesta queramos o no. En cualquier caso sí que nos puede suministrar fuentes para que aprendamos más sobre ese tema. Recomendando siempre organismos públicos y estudios científicos confiables.

Para estar siempre al día con lo último en tecnología, suscríbete a nuestro canal oficial y verificado de Andro4all en WhatsApp.

Para ti
Queremos saber tu opinión. ¡Comenta!