A la luz de preocupaciones de seguridad, la fuerza espacial de EE. UU. deja de usar software similar a ChatGPT
2023-10-13 15:32:40
Según se informó al anterior director de tecnología del departamento, más de 500 empleados de la Fuerza Espacial se vieron afectados.
Fuente: www.dlr.de
Para preservar la información oficial, la Fuerza Espacial de los Estados Unidos supuestamente prohibió brevemente a su personal utilizar tecnologías de generación artificial en el trabajo. En otro memorando enviado a Guardian Workforce (participantes de la Fuerza Espacial) el 29 de septiembre, a los participantes de la Fuerza Espacial se les dijo que no están autorizados a utilizar herramientas productivas de inteligencia artificial basadas en la web para generar texto, imágenes y otros que la prensa puede si es especialmente aceptado.
Según Lisa Costa, subdirectora de operaciones aeroespaciales para tecnología innovadora de la Fuerza Espacial, la IA generativa seguramente transformará al personal y mejorará la capacidad de Guardian para un despliegue rápido. Sin embargo, Costa citó problemas con la gestión de datos actual y las normas de seguridad para argumentar que la adopción de la IA y los lenguajes de modelos grandes (LLM) debía ser más cuidadosa.
La Fuerza Espacial de los Estados Unidos es un componente de las fuerzas armadas estadounidenses que es responsable de defender los objetivos espaciales estadounidenses y aliados. Como informó Bloomberg, que citó comentarios de Nick Chaillan, anteriormente director jefe de software de la Fuerza Aérea y la Fuerza Espacial de los Estados Unidos, la elección de la Fuerza Espacial ahora está teniendo un efecto duradero en al menos 500 personas que utilizan un programa de aprendizaje automático llamado Ask Sage. .
Según los informes, Chaillan no estuvo de acuerdo con la decisión de la Fuerza Espacial. Se quejó ante Costa junto con otros altos funcionarios de defensa en un correo electrónico de septiembre, diciendo: Claramente, esto seguirá colocándonos años más allá de China. La CIA de EE. UU. y sus divisiones han creado herramientas de inteligencia artificial creativas únicas que cumplen con las reglas de seguridad de datos.
Varios gobiernos han expresado recientemente su preocupación por la posibilidad de que los LLM puedan revelar material confidencial al público. En marzo, Italia prohibió momentáneamente el chatbot de IA ChatGPT debido a supuestas violaciones de las leyes de privacidad relacionadas con los datos antes de cambiar de opinión unos treinta días después. El uso de tecnologías de inteligencia artificial similares a ChatGPT en el trabajo ha sido prohibido o limitado por varios titanes de la tecnología, incluidos Apple, Amazon y Samsung. Las personas pueden tomar medidas de seguridad personal adicionales para proteger sus identidades además de salvaguardar sus datos, como instalar software antivirus en sus computadoras personales, usar firewalls y usar frases de contraseña largas y difíciles. Es esencial conocer las pautas más recientes para estar seguro en línea.
Descargo de responsabilidad: FameEX no se responsabiliza de la exactitud o idoneidad de las declaraciones oficiales realizadas por el intercambio con respecto a los datos en esta área o cualquier asesoramiento financiero relacionado.