Mar 31, 2023 | Política

Inteligencia Artificial: el debate sobre pausar, investigar y regular la herramienta

Expertes en tecnología, empresaries y sus propios creadores advierten sobre el peligro que podría conllevar el avance de este sistema si no se pone un freno para estudiarlo, analizarlo y, en el mejor de los casos, establecer un control exhaustivo.
Inteligencia Artificial
El comunicado afirma que la Inteligencia Artificial representa un cambio “profundo” en la historia de la Tierra. Crédito: Hipertextual.

Las conversaciones de sobremesa más habituales en este último tiempo fueron acerca de la inteligencia artificial, más precisamente acerca del ChatGPT. Pero, ¿qué impacto tiene la Inteligencia Artificial (IA) en distintas áreas? ¿circula información falsa? ¿es necesario hacer una investigación a fondo o la intervención del Estado?

Para empezar, cabe aclarar qué es y de dónde salió esta nueva tecnología. ChatGPT es un sistema de chat con IA que está programado para mantener conversaciones, de manera que se le puede preguntar cualquier cosa y es capaz de resolver y contestar cualquier tipo de problema.

Sam Altman es el creador y la mente detrás del ChatGPT, OpenAI y Dall-e. El fundador logró, a partir de su startup, Microsoft invirtiera $10.000 millones en su empresa. 

La organización fue financiada inicialmente por Altman, Brockman, Elon Musk, Jessica Livingston, Peter Thiel, Amazon Web Services, Infosys y YC Research. En total, cuando la empresa se lanzó en 2015, había recaudado mil millones de dólares de financiadores externos.

Inteligencia Artificial
Los expertos sugieren intervención de la política para reducir los peligros de la IA. Crédito: Freepik.

¿Es un peligro para la sociedad?

A pesar de ser muy útil y parecer todo color de rosas, ya se han advertido los peligros que podría acarrear la IA y los riesgos reales para la sociedad. De hecho, el propio Altman aseguró estar muy preocupado ante los usos que se le pueden dar a su invento.

El directivo de OpenAI se mostró “particularmente preocupado de que estos modelos puedan usarse para la desinformación a gran escala. Ahora que están mejorando en la escritura de códigos informáticos, podría usarse para ataques cibernéticos ofensivos”.

Por su parte, el propio Musk, nuevo dueño de Twitter y controversial multimillonario, disparó una polémica frase luego del lanzamiento de la última versión: “¿Qué nos quedará por hacer a los humanos?” Además, sugirió pausar los avances en la investigación de Inteligencia Artificial porque “podría poner en riesgo a la humanidad”.

A esta última petición se sumaron grandes empresaries y ejecutivos que solicitaron una pausa de seis meses para investigar la nueva versión. La misma, que fue publicada en el sitio futureoflife.org, propone “establecer sistemas de seguridad con nuevas autoridades reguladoras, vigilancia de los sistemas de IA, técnicas que ayuden a distinguir entre lo real y lo artificial, e instituciones capaces de hacer frente a la dramática perturbación económica y política (especialmente para la democracia) que causará la IA”.

Además, señalaron que “la IA avanzada podría representar un cambio profundo en la historia de la vida en la Tierra y debería ser planificada y gestionada con recursos y cuidados correspondientes. Desafortunadamente, este nivel de planificación y gestión no está sucediendo”.

Por último, el comunicado se hace preguntas que tal vez el ChatGPT aún no está listo para responder: “¿Debemos permitir a las máquinas inundar nuestros canales de información con propaganda y mentiras? ¿Debemos automatizar todos los trabajos, incluidos los gratificantes? ¿Debemos arriesgarnos a perder el control de nuestra civilización?”

Inteligencia Artificial
El propio creador del ChatGPT advirtió que debería ser más cauteloso el uso de la herramienta. Crédito: Iproup.

¿Regular e intervenir?

Ahora bien, el debate pasa a un nuevo plano: ¿debería el Estado intervenir? ¿Está tomando dimensión política y geopolítica? Por un lado, Santiago Bilinkis señala en su columna que existe un grupo de “técnico libertarios” que sostiene que la Inteligencia Artificial no debe ser limitada de ninguna manera ya que intenta activamente vulnerar todas las barreras que “impone el sistema”.

Sin embargo, los riesgos de la Inteligencia Artificial se transforman en reales cuando, por ejemplo, el sistema permitió por unos días brindar la forma de construir una bomba de forma más sencilla. Si bien esa puerta fue cerrada, probablemente se abran otras. 

La respuesta a la pregunta de este subtítulo fue contestada por Mira Murati, una de las responsables del desarrollo de los modelos de la Inteligencia Artificial del ChatGPT. Ella cree que la IA debería estar regulada para evitar su mal uso y que así esté “alineada a los valores humanos”. 

En su entrevista con la revista Times dejó en claro: “A pesar de que este tipo de tecnologías todavía son algo nuevas, no es pronto para que los políticos se involucren a causa del gran impacto que van a tener”.

Compartir:

Seguir Leyendo

Acuífero Guaraní: derogar la Ley de Tierras amenaza el acceso al agua

Acuífero Guaraní: derogar la Ley de Tierras amenaza el acceso al agua

Bajada: El mega DNU firmado por Javier Milei tiene entre sus múltiples implicancias la desprotección de los cursos de agua estratégicos, cuyo acceso podría quedar bajo manos extranjeras. El Acuífero Guaraní cuenta con otras leyes y acuerdos regionales que lo protegen, pero las organizaciones socioambientales advierten que “la derogación de la Ley de Tierras abre una puerta más para que vengan por el agua”.

leer más
Nota al Pie | Noticias en contexto