Una agencia internacional debería estar a cargo de inspeccionar y auditar la inteligencia artificial general para garantizar que la tecnología sea segura para la humanidad, según los altos ejecutivos del fabricante de GPT-4, OpenAI.
El CEO Sam Altman y los cofundadores Greg Brockman e Ilya Sutskever dijeron que es "concebible" que la IA obtenga habilidades extraordinarias que superen a los humanos durante la próxima década.
“En términos de ventajas y desventajas potenciales, la superinteligencia será más poderosa que otras tecnologías con las que la humanidad ha tenido que lidiar en el pasado. Podemos tener un futuro dramáticamente más próspero; pero tenemos que gestionar el riesgo para llegar allí”, el trío escribí el martes.
Los costos de construir una tecnología tan poderosa solo están disminuyendo a medida que más personas trabajan para avanzar, argumentaron. Para controlar el progreso, el desarrollo debe ser supervisado por una organización internacional como la Agencia Internacional de Energía Atómica (OIEA).
El OIEA se estableció en 1957 durante una época en que los gobiernos temían que se desarrollaran armas nucleares durante la Guerra Fría. La agencia ayuda a regular la energía nuclear y establece salvaguardas para asegurarse de que la energía nuclear no se utilice con fines militares.
“Es probable que eventualmente necesitemos algo como un OIEA para los esfuerzos de superinteligencia; cualquier esfuerzo por encima de un cierto umbral de capacidad (o recursos como computación) deberá estar sujeto a una autoridad internacional que pueda inspeccionar sistemas, requerir auditorías, probar el cumplimiento de los estándares de seguridad, imponer restricciones en los grados de implementación y niveles de seguridad, etc. " ellos dijeron.
Dicho grupo estaría a cargo de rastrear el uso de cómputo y energía, recursos vitales necesarios para entrenar y ejecutar modelos grandes y poderosos.
“Podríamos acordar colectivamente que la tasa de crecimiento de la capacidad de IA en la frontera está limitada a una cierta tasa por año”, sugirió el alto mando de OpenAI. Las empresas tendrían que aceptar voluntariamente las inspecciones, y la agencia debería centrarse en "reducir el riesgo existencial", no en cuestiones reglamentarias definidas y establecidas por las leyes individuales de un país.
La semana pasada, Altman planteó la idea de que las empresas deberían obtener una licencia para construir modelos con capacidades avanzadas por encima de un umbral específico en un Senado. .. Su sugerencia fue criticada más tarde, ya que podría afectar injustamente los sistemas de inteligencia artificial creados por empresas más pequeñas o la comunidad de código abierto, que es menos probable que tenga los recursos para cumplir con los requisitos legales.
“Creemos que es importante permitir que las empresas y los proyectos de código abierto desarrollen modelos por debajo de un umbral de capacidad significativo, sin el tipo de regulación que describimos aquí (incluidos mecanismos onerosos como licencias o auditorías)”, dijeron.
Elon Musk a fines de marzo fue uno de los 1,000 firmantes de una carta abierta que pedía una pausa de seis meses en el desarrollo y entrenamiento de IA más poderosa que GPT4 debido a los riesgos potenciales para la humanidad, algo que Altman confirmado a mediados de abril lo estaba haciendo.
“Los poderosos sistemas de IA deben desarrollarse solo una vez que estemos seguros de que sus efectos serán positivos y sus riesgos serán manejables”, decía la carta.
El CEO de Alphabet y Google, Sundar Pichai, escribió un artículo en el Financial Times el fin de semana, decir: “Sigo creyendo que la IA es demasiado importante para no regularla, y demasiado importante para no regularla bien”. ®
- Distribución de relaciones públicas y contenido potenciado por SEO. Consiga amplificado hoy.
- PlatoAiStream. Inteligencia de datos Web3. Conocimiento amplificado. Accede Aquí.
- Acuñando el futuro con Adryenn Ashley. Accede Aquí.
- Compra y Vende Acciones en Empresas PRE-IPO con PREIPO®. Accede Aquí.
- Fuente: https://go.theregister.com/feed/www.theregister.com/2023/05/24/openai_superintelligence_global_agency/
- :posee
- :es
- :no
- 000
- 1
- a
- <del>
- arriba
- Conforme
- avanzado
- seguir
- AI
- Sistemas de IA
- permitir
- an
- y
- cualquier
- somos
- argumentó
- artificial
- inteligencia general artificial
- AS
- At
- auditoría
- auditorías
- autoridad
- BE
- CREEMOS
- a continuación
- ambas
- latón
- build
- Construir la
- construido
- pero
- by
- , que son
- Calls
- PUEDEN
- capacidades
- ceo
- a ciertos
- CHARGE
- CO
- cofundadores
- frío
- colectivamente
- vibrante e inclusiva
- Empresas
- compliance
- Calcular
- seguros
- control
- Precio
- podría
- país
- década
- se define
- despliegue
- describir
- desarrollar
- desarrollado
- el desarrollo
- Desarrollo
- "Hacer"
- desventajas
- dramáticamente
- dos
- durante
- los efectos
- esfuerzo
- esfuerzos
- energía
- energía usada
- garantizar
- se establece
- etc.
- Éter (ETH)
- finalmente
- exceden
- ejecutivos.
- existencial
- un recuerdo extraordinario
- financiero
- Financial Times
- Focus
- adelante
- frontera
- FT
- futuras
- General
- inteligencia general
- obtener
- Buscar
- Gobiernos
- Grupo procesos
- Crecimiento
- tenido
- Tienen
- ayuda
- su
- HTTPS
- con Humildad
- Humanos
- i
- idea
- Impacto
- importante
- in
- Incluye
- INSTRUMENTO individual
- Intelligence
- Internacional
- ISN
- cuestiones
- IT
- jpg
- Tipo
- large
- Tarde
- luego
- leyes
- Legal
- menos
- carta
- Licencia
- licencias
- como
- que otros
- Limitada
- para lograr
- fabricante
- gestionan
- Marzo
- los mecanismos de
- Conoce a
- Militares
- modelos
- más,
- Almizcle
- ¿ Necesita ayuda
- Next
- nuclear
- Energía nuclear
- La energía nuclear
- Armas nucleares
- obtener
- of
- on
- una vez
- ONE
- , solamente
- habiertos
- de código abierto
- proyectos de código abierto
- OpenAI
- or
- solicite
- organización
- Otro
- Más de
- pasado
- pausa
- Personas
- pichai
- pieza
- Colocar
- Platón
- Inteligencia de datos de Platón
- PlatónDatos
- positivo
- posible
- industria
- poderoso
- Progreso
- proyecta
- fines
- poner
- Rate
- la reducción de
- Regula tu
- Regulación
- regulador
- exigir
- Requisitos
- Recursos
- restricciones
- Riesgo
- riesgos
- Ejecutar
- s
- ambiente seguro
- salvaguardias
- Safety
- Said
- Diana
- EN LINEA
- Senado
- set
- Sets
- tienes
- firmantes
- importante
- desde
- menores
- algo
- Fuente
- soluciones y
- estándares de salud
- dijo
- Sin embargo
- sujeto
- tal
- Sundar Pichai
- Superinteligencia
- Todas las funciones a su disposición
- Tecnologías
- Tecnología
- términos
- test
- que
- esa
- El
- El Financial Times
- su
- Ahí.
- ellos
- pensar
- umbral
- equipo
- veces
- a
- demasiado
- parte superior
- hacia
- Seguimiento
- Entrenar
- Formación
- trío
- Martes
- utilizan el
- usado
- vital
- voluntariamente
- guerra
- fue
- we
- Armas
- semana
- fin de semana
- WELL
- cuando
- QUIENES
- seguirá
- sin
- Actividades:
- se
- año
- zephyrnet