El empresario y visionario Elon Musk ha estado involucrado en el mundo de la inteligencia artificial (IA) desde hace varios años. En 2015, fundó OpenAI junto a Sam Altman, convirtiéndose en miembros iniciales de la junta directiva e inversores de esta empresa pionera en IA. Desde entonces, Musk ha estado profundamente comprometido con esta tecnología, desarrollando el chatbot Grok, creando la empresa xAI y generando controversia en torno a la IA. Recientemente, durante el seminarioEl gran debate de la IA celebrado en el evento anual Abundance Summit, Musk sorprendió al público al expresar su preocupación sobre las posibles consecuencias catastróficas que la inteligencia artificial podría tener para la humanidad. Musk afirmó que existe alguna posibilidad de que la IA acabe con la humanidad, estimando este riesgo entre un 10% y un 20%. Aunque no especificó cómo podría darse esta amenaza. Esta incertidumbre plantea desafíos significativos para evaluar el nivel de peligro que representa realmente la IA para los seres humanos. Las predicciones sobre este tema suelen variar ampliamente, oscilando entre un 5% y un 50%, lo que refleja diferentes percepciones sobre el grado de riesgo potencial. Roman Yampolskiy, investigador de seguridad de la IA y director del Laboratorio de Seguridad Cibernética de la Universidad de Louisville, respalda las preocupaciones planteadas por Elon Musk. Sin embargo, considera que Musk podría estar siendo demasiado conservador en sus evaluaciones. Durante el mismo seminario, Musk comparó el desarrollo de la IA con criar a un niño prodigio : Es casi como criar a un niño pero uno que es como un súper genio. Hizo hincapié en la importancia fundamental del fomento de una búsqueda máxima por parte del sistema AI hacia encontrar siempre verdades fundamentales y mantener una actitud curiosa sin necesidad alguna por mentir o evitar verdades desagradables. Las declaraciones recientes de Elon Musk han avivado aún más el debate sobre los límites éticos y los posibles peligros asociados con el avance acelerado en inteligencia artificial. Su postura enfatiza tanto las oportunidades transformadoras como los riesgos potenciales inherentes a esta tecnología disruptiva.
Durante la mañana del jueves 23 de noviembre se conocieron diferentes versiones sobre una carta que habría sido enviada por investigadores de la compañía OpenAI, la cual hablaría sobreun poderoso descubrimiento que podría amenazar a la humanidad. Medios internacionales señalan que este sería el motivo por el cual se desencadenó el escándalo dentro del gigante tecnológico, mientras que otros dicen que sería uno de los motivos determinantes para la salida de Sam Altman hace algunos días. Por un lado, la agencia de noticias Reuters señala que la misiva habría sido determinante en la decisión tomada para el caso de Altman; mientras que el medio especializado The Verge asegura que la carta no tuvo nada que ver con la salida de uno de los cofundadores de OpenAI. Todo habría comenzado cuando el cerebro detrás de los inventos de Inteligencia Artificial aseguró que cuatro veces en la historia de OpenAI, la más reciente hace solo un par de semanas, he tenido la oportunidad de estar en la sala en la que empujamos el velo de la ignorancia hacia atrás y la frontera del descubrimiento hacia delante, y poder hacerlo es el honor profesional de mi vida”. Sin embargo, medios internacionales señalan que empleados de OpenAI temen que las declaraciones de Altman se referían a una innovación hecha dentro de la compañía para desarrollar modelos de inteligencia artificial más potentes de los que se tienen en la actualidad. En dicho contexto, algunos miembros de la empresa mostraron su preocupación porque en OpenAI no se establecieran las medidas adecuadas para comercializar los potentes modelos. Por otro lado, Reuters señala que la carta anteriormente mencionada fue uno de los factores determinantes para la salida de Altman, ya que estaría relacionada al proyecto llamado Q*, el cual está en la búsqueda de la superinteligencia (inteligencia artificial general ).
El empresario y visionario Elon Musk ha estado involucrado en el mundo de la inteligencia artificial (IA) desde hace varios años. En 2015, fundó OpenAI junto a Sam Altman, convirtiéndose en miembros iniciales de la junta directiva e inversores de esta empresa pionera en IA. Desde entonces, Musk ha estado profundamente comprometido con esta tecnología, desarrollando el chatbot Grok, creando la empresa xAI y generando controversia en torno a la IA. Recientemente, durante el seminarioEl gran debate de la IA celebrado en el evento anual Abundance Summit, Musk sorprendió al público al expresar su preocupación sobre las posibles consecuencias catastróficas que la inteligencia artificial podría tener para la humanidad. Musk afirmó que existe alguna posibilidad de que la IA acabe con la humanidad, estimando este riesgo entre un 10% y un 20%. Aunque no especificó cómo podría darse esta amenaza. Esta incertidumbre plantea desafíos significativos para evaluar el nivel de peligro que representa realmente la IA para los seres humanos. Las predicciones sobre este tema suelen variar ampliamente, oscilando entre un 5% y un 50%, lo que refleja diferentes percepciones sobre el grado de riesgo potencial. Roman Yampolskiy, investigador de seguridad de la IA y director del Laboratorio de Seguridad Cibernética de la Universidad de Louisville, respalda las preocupaciones planteadas por Elon Musk. Sin embargo, considera que Musk podría estar siendo demasiado conservador en sus evaluaciones. Durante el mismo seminario, Musk comparó el desarrollo de la IA con criar a un niño prodigio : Es casi como criar a un niño pero uno que es como un súper genio. Hizo hincapié en la importancia fundamental del fomento de una búsqueda máxima por parte del sistema AI hacia encontrar siempre verdades fundamentales y mantener una actitud curiosa sin necesidad alguna por mentir o evitar verdades desagradables. Las declaraciones recientes de Elon Musk han avivado aún más el debate sobre los límites éticos y los posibles peligros asociados con el avance acelerado en inteligencia artificial. Su postura enfatiza tanto las oportunidades transformadoras como los riesgos potenciales inherentes a esta tecnología disruptiva.
Durante la mañana del jueves 23 de noviembre se conocieron diferentes versiones sobre una carta que habría sido enviada por investigadores de la compañía OpenAI, la cual hablaría sobreun poderoso descubrimiento que podría amenazar a la humanidad. Medios internacionales señalan que este sería el motivo por el cual se desencadenó el escándalo dentro del gigante tecnológico, mientras que otros dicen que sería uno de los motivos determinantes para la salida de Sam Altman hace algunos días. Por un lado, la agencia de noticias Reuters señala que la misiva habría sido determinante en la decisión tomada para el caso de Altman; mientras que el medio especializado The Verge asegura que la carta no tuvo nada que ver con la salida de uno de los cofundadores de OpenAI. Todo habría comenzado cuando el cerebro detrás de los inventos de Inteligencia Artificial aseguró que cuatro veces en la historia de OpenAI, la más reciente hace solo un par de semanas, he tenido la oportunidad de estar en la sala en la que empujamos el velo de la ignorancia hacia atrás y la frontera del descubrimiento hacia delante, y poder hacerlo es el honor profesional de mi vida”. Sin embargo, medios internacionales señalan que empleados de OpenAI temen que las declaraciones de Altman se referían a una innovación hecha dentro de la compañía para desarrollar modelos de inteligencia artificial más potentes de los que se tienen en la actualidad. En dicho contexto, algunos miembros de la empresa mostraron su preocupación porque en OpenAI no se establecieran las medidas adecuadas para comercializar los potentes modelos. Por otro lado, Reuters señala que la carta anteriormente mencionada fue uno de los factores determinantes para la salida de Altman, ya que estaría relacionada al proyecto llamado Q*, el cual está en la búsqueda de la superinteligencia (inteligencia artificial general ).