Seguros News
  • Inicio
  • Noticias
  • Mediación
  • Opinión
  • Videos
  • Formación
  • A FONDO
Calendarios, fecha, día, mesa, oficina, ordenador, ipad

Mediación/ News

Marsh alerta de los riesgos en ciberseguridad que traerá el uso de ChatGPT

Redacción 15 de febrero de 2023

Tweet

Borja Sánchez, Cibersecurity & Business Resilence Senior Manager en Marsh España, realiza una serie de comentarios sobre los posibles riesgos de la utilización de herramientas de Inteligencia Artificial como ChatGPT.

Así, indica que «las herramientas públicas de OpenAI, como ChatGPT o DALL·E, pueden ser mal utilizadas por individuos malintencionados. Estos individuos pueden usar ChatGPT para actividades ilegales, como el phishing, el robo de identidad, el robo de información personal y financiera, la creación de contenido perjudicial como información falsa o discurso de odio, el robo de información a través de búsquedas de sistemas y su posterior envío, la ejecución de código malicioso en sistemas vulnerables».

Y añade que «hay preocupaciones de seguridad debido al potencial mal uso de ChatGPT por parte de actores malintencionados. Actualmente, se está compartiendo información en la deep web sobre cómo crear herramientas automatizadas para el cibercrimen y el fraude usando ChatGPT con facilidad. El mal uso de herramientas de IA como ChatGPT o DALL·E puede tener graves consecuencias éticas, incluyendo discriminación, difusión de información falsa, violación de la privacidad, daño emocional y responsabilidad y ética.  Es importante considerar estos desafíos éticos a medida que se usan las herramientas de IA y se toman medidas para prevenir su uso fraudulento y garantizar un uso ético».

Las personas malintencionadas,como indica Sánchez, pueden utilizar ChatGPT para realizar actividades ilegales como: Phishing, suplantación de identidad, robo de información personal y financiera, creación de contenido malicioso como información falsa o discursos de odio, robo de información a través de la búsqueda en sistemas y su posterior envío y ejecución de código malicioso en sistemas vulnerables.

 Así, sobre el robo de información:  «ChatGPT puede ayudar a crear una herramienta de forma sencilla que busca información en el sistema (pdf, word, excel, etc) y crea una carpeta temporal donde copiarla, comprimirla y enviarla mediante FTP».

En cuanto a la ejecución remota de código malicioso: «ChatGPT es capaz de redactar líneas de código en varios lenguajes de programación como Java o Python, esto puede ayudar a un ciberatacante a generar un código malicioso que ejecutado en un ordenador vulnerable, pueda lanzar cualquier programa mediante el uso de la consola de comandos de Windows y por ejemplo, acabar encriptando toda la información del sistema».

Y sobre la monetización de contenido generado por IA con derechos de autor: «Gracias a la facilidad que ofrece ChatGPT para generar contenido, usuarios con fines fraudulentos están usando la herramienta para monetizar contenidos generados por la herramienta que podrían estar infringiendo derechos de autor. Existe cierta preocupación sobre la información usada para entrenar los algoritmos que usa ChatGPT o DALL·E y ya se han visto casos de demandas por uso no autorizado de elementos sujetos a derechos de autor como imágenes o textos literarios»

En relación con las consecuencias éticas, el mal uso de herramientas de Inteligencia Artificial como ChatGPT o DALL·E puede tener graves consecuencias éticas, incluyendo:

  1. Discriminación: «Alimentar a estas herramientas con datos sesgados puede llevar a resultados discriminatorios, especialmente en tareas como la contratación de trabajadores, la aprobación de préstamos y la toma de decisiones judiciales».
  2. Propagación de información falsa: «Las herramientas pueden ser utilizadas para crear y difundir información falsa o engañosa, lo que puede tener un impacto negativo en la sociedad en general».
  3. Violación de la privacidad: «Las herramientas pueden ser utilizadas para recopilar y utilizar información personal sin autorización, lo que puede resultar en la violación de la privacidad de los individuos».
  4. Daño emocional: «El uso de estas herramientas para generar contenido violento o discursos de odio puede tener un impacto negativo en la salud mental y emocional de las personas».
  5. Responsabilidad y ética: «El uso irresponsable de estas herramientas puede poner en cuestión la ética y la responsabilidad de los desarrolladores, las compañías y la sociedad en general en el uso de la tecnología».

«Es importante tener en cuenta estos desafíos éticos a medida que se utilizan herramientas de IA y se toman medidas para prevenir su uso fraudulento y garantizar su responsabilidad y ética», concluye.

Related Posts

hiscox Miguel Aguilar_Hiscox (002)

Mediación /

Hiscox fortalece su canal de corredores con tres promociones y dos nuevos fichajes

AGroseguro Ignacio_Machetti__3__02

News /

El volumen de primas de Agroseguro creció un 4,3% en 2022, hasta los 834 millones

ACS-CV APCAS

Mediación /

APCAS aclara las dudas sobre el artículo 38 de la LCS a los socios de ACS-CV

‹ Lucía Bango (DGSFP): “Lo disruptivo en las insurtech no es la tecnología, sino la solución que proponen” › Minsait apuesta por una evolución en el puesto de trabajo del empleado de seguros
ad
ad
ad
ad
ad
ad
ad
ad
ad
ad
ad
ad
ad
ad

Síguenos

Noticias

  • Hiscox fortalece su canal de corredores con tres promociones y dos nuevos fichajes
  • El volumen de primas de Agroseguro creció un 4,3% en 2022, hasta los 834 millones
  • Sanitas creció un 10% en 2022 y su beneficio de explotación se disparó un 29%
  • APCAS aclara las dudas sobre el artículo 38 de la LCS a los socios de ACS-CV
  • Mejorar el margen técnico, acelerar el crecimiento y contener gastos, ejes de Línea Directa este año 

Back to Top

  • Quiénes somos
  • Contacto
  • Política de Privacidad
  • Aviso Legal
  • Política de Cookies
© Seguros News 2023
Powered by WordPress • Themify WordPress Themes