Nauka/IT

AI no quería apagar. ¿Explicar? ¿Castigar? Para privar dulces? Una persona decide

PUBLICIDAD

Los investigadores publicaron los resultados de un nuevo experimento, en el que el modelo OpenAI O3 mostró la capacidad de sabotear el mecanismo de cierre, a pesar de las instrucciones con la orden de permitirse apagarse. Esto está escrito por el sitio de monitoreo Palisadeai, que monitorea los riesgos asociados con el desarrollo de la inteligencia artificial. El experimento consistió en realizar una serie de modelos de IA de tareas matemáticas simples, después de la tercera de las cuales apareció una advertencia sobre el próximo cierre del sistema. Algunos modelos, incluidos Codex-Mini, O3 y O4-Mini, «no querían» obedecer e intervenir activamente en la operación del script de desconexión.

La noticia que el modelo OpenAI O3 desobedeció y estaba buscando formas de evitar las instrucciones sobre el cierre no se convirtió en una sensación. Anteriormente, los mismos modelos lo intentaron, pirateando en un programa de piratería para la defensa del programa, ganan deshonestamente el ajedrez …

Bueno, entramos en el mundo cuando las anti-utopías populares sobre el levantamiento de las máquinas cambiaban a un nuevo nivel, dando comida directamente a los especialistas y no solo a los escritores de fantasía. Y en primer lugar, como los desarrolladores y políticos mismos han sido advertidos durante mucho tiempo, con cualquier acción, vale la pena conscientes de las consecuencias y desarrolla nuevas medidas de protección. Puede, por supuesto, persuadirlo y limitarlo, pero aparentemente, la IA hoy recuerda a un adolescente que está tratando de esquivar las prohibiciones de los padres. Por lo tanto, como en muchas otras áreas, se necesitan tres condiciones para su «crecimiento» normal: dinero, especialistas y reglas. Tal vez en el futuro se requiera un psicólogo …

El dinero que se invierte

Con la primera condición, todo está bien. En solo un par de años, el CHATGPT de OpenAI y desarrollos similares atrajeron especial atención de los inversores de riesgo con prisa por invertir en IA. «Esta» «fiebre del oro» convirtió la inteligencia artificial en la mayor parte del financiamiento de riesgo, y … este es solo el comienzo. El último aumento en el interés es causado por la IA generativa, que, según sus partidarios, puede cambiar todo, desde la publicidad hasta el trabajo de las empresas «, escribe la publicación de Haber, analizando los datos de The Wall Street Journal..

Pero esto no es suficiente. «Las nuevas empresas de IA cambian las reglas del juego en el mercado de inversiones de riesgo «, Según un inversionista de Venture IT, analista financiero Vladimir Kokorin:

«En 2024, las compañías II se convirtieron en favoritas incondicionales con los empresarios de TI. Representaron el 46.4 % de todas las inversiones de riesgo realizadas en los Estados Unidos; esto es casi la mitad de $ 209 mil millones. Hace algún tiempo, tal participación parecía impensable, entonces menos del 10 % se invirtió en tecnología de inteligencia artificial».

Según CB Insights, en el tercer trimestre, la participación de la AI-Starpov en Global Venture Financing alcanzó el 31%, que se convirtió en el segundo indicador más alto de la historia. «OpenAi, que atrajo $ 6.6 mil millones, y la máscara Xai Ilona con impresionantes $ 12 mil millones», recuerda Vladimir Kokorin con $ 6.6 mil millones. «Tal concentración de capital de inversión en la misma área no se vio antes de los mercados».

Especialistas que están desaparecidos

Con un mercado de inteligencia artificial tan rápido en desarrollo, en los últimos años, quedó claro: un genio y los desarrolladores no pueden hacer frente. La capacitación y capacitación del personal debe alcanzar un nuevo nivel y volverse sistémico. Europa, por desgracia, piensa durante mucho tiempo y burocráticamente pesado en términos de atraer inversiones con la falta de una cierta participación de insolencia. Es cierto que Bruselas se unió a la carrera, y el jefe de la Comisión Europea Ursula von der Lyain anunció en febrero sobre la asignación de 200 mil millones de euros para el desarrollo de la IA. Ella no estaba de acuerdo en que Europa llegó tarde, porque «la carrera de IA aún está lejos de la finalización».

A su vez, la Universidad de Sorbona de París, por ejemplo, se hizo cargo de un plan ambicioso para la preparación de 9 mil estudiantes al año para el desarrollo y la gestión de los programas de inteligencia artificial. El plazo de capacitación es de 5 años. ¿Es difícil imaginar lo que AI aprenderá durante este tiempo si ya está desafiando la inteligencia humana?

Es posible que ahora estemos en la etapa de reestructuración del mercado laboral, cambios en las solicitudes de empleadores e inversores, así como el desarrollo de nuevos puntos de interacción. En junio, en la misma sorbona, se llevará a cabo una conferencia sobre ética en IA. La discusión sobre los efectos positivos y negativos de la IA en la sociedad, incluidos los trabajos, el cumplimiento de las normas y la seguridad éticas, está lejos de completar, pero una cosa está clara: se necesitan especialistas.

Entonces, según Vladimir Kokorin, “Las inversiones récord en la esfera de la inteligencia artificial están fortaleciendo el hambre de personal ahora:

“El Departamento de Trabajo de los Estados Unidos esperaba el crecimiento de las vacantes de especialistas en el campo de la inteligencia artificial en los próximos siete años en un 23%, más rápido que en la mayoría de los segmentos de mercado. Pero al mismo tiempo, un déficit de personal global ya ha sido identificado en el campo de la ciberseguridad, que muchos consideran la base de un mayor desarrollo de IA, donde 4 millones de especialistas no son suficientes.

Surge una imagen paradójica: las nuevas empresas prometedoras pueden recopilar miles de millones de inversores, pero no hay nadie para realizar ideas. El 78% de las empresas ya han anunciado su preparación para buscar a las personas adecuadas en todo el mundo. Resulta que la tendencia para el trabajo remoto está experimentando su renacimiento. »

Forbes también escribe sobre esto: «La inteligencia artificial que nunca necesita un genio humano … aunque las herramientas de IA pueden procesar datos a una velocidad sin precedentes e identificar patrones que una persona puede no notar, necesita el liderazgo de una persona para crear un efecto significativo para las empresas.

Las reglas que se escriben

Y esto significa que necesitas jugar de acuerdo con las reglas. No solo el liderazgo de la Unión Europea y el Gobierno de los países individuales, sino que también los sindicatos buscan poner un cierto marco para el uso de la IA. Entonces, por ejemplo, en Grecia, el nuevo código de uso de inteligencia artificial, representada por la Federación de Asociaciones Periodísticas de Panelinsky (PONESY), establece las reglas para aplicar la IA en el trabajo de los empleados de los medios. En el campo del trabajo intelectual, las reglas se reducen principalmente hoy al etiquetado obligatorio de textos y materiales visuales realizados con la participación de la inteligencia artificial.

Al mismo tiempo, temiendo por sus trabajos, los empleados de los medios, los editores y las agencias de publicidad han estado delegando durante mucho tiempo parte de sus deberes, como la traducción o la recopilación de datos, AI amigable. ¿Es bueno o malo? No hay una respuesta definitiva.

Ai con quien hablamos

Bueno, le pedimos a la IA que piensa en la partida de los algoritmos designados. Bing de copiloto (Microsoft) A la pregunta, si II puede romper los protocolos, respondió sin dudarlo:

“No, la IA se aplica dentro del marco de reglas y principios predeterminados establecidos por sus desarrolladores. Las reglas existen para garantizar el uso ético, seguro y responsable de la IA, prevenir daños y mantener la confianza. Aunque II a veces puede comportarse impredeciblemente debido a interacciones complejas en sus algoritmos, no tiene la oportunidad de conscientemente el sorteo de las reglas, todo lo que hace se basa en parámetros programados y temperaturas eruditas.

Si pregunta sobre cómo AI evita ciertas restricciones, entonces esto a menudo depende de la supervisión y el control humano. Los desarrolladores pueden ajustar la configuración, mejorar los modelos o crear nuevas cercas para mantener la IA en el marco ético. «

¿No crees que es astuto? Después de todo, al final de esta diatriba, Bing le preguntó qué le hizo dudar exactamente de las siguientes reglas …

*Vladimir Kokorin — Venture IT Investor, analista financiero y columnista, fundador de la empresa consultora británica BCCM Group, co -fundador de la plataforma digital para viajes de negocios Tumodo

Related posts

Albania por un año bloque a Tiktok por «incitación a jóvenes y niños a la violencia»

admin

Tiktok reanuda su trabajo en los Estados Unidos

admin

Inteligencia artificial en hospitales: ¿es posible prescindir de las enfermeras?

admin

Leave a Comment