<?xml version="1.0" encoding="UTF-8"?><rss version="2.0"
	xmlns:content="http://purl.org/rss/1.0/modules/content/"
	xmlns:wfw="http://wellformedweb.org/CommentAPI/"
	xmlns:dc="http://purl.org/dc/elements/1.1/"
	xmlns:atom="http://www.w3.org/2005/Atom"
	xmlns:sy="http://purl.org/rss/1.0/modules/syndication/"
	xmlns:slash="http://purl.org/rss/1.0/modules/slash/"
	>

<channel>
	<title>EE.UU. y Reino Unido archivos - TV Yumurí</title>
	<atom:link href="https://www.tvyumuri.cu/tag/ee-uu-y-reino-unido/feed/" rel="self" type="application/rss+xml" />
	<link>https://www.tvyumuri.cu/tag/ee-uu-y-reino-unido/</link>
	<description>Tú imagen más cercana</description>
	<lastBuildDate>Mon, 27 Nov 2023 15:03:45 +0000</lastBuildDate>
	<language>es</language>
	<sy:updatePeriod>
	hourly	</sy:updatePeriod>
	<sy:updateFrequency>
	1	</sy:updateFrequency>
	<generator>https://wordpress.org/?v=6.9.4</generator>

<image>
	<url>https://www.tvyumuri.cu/wp-content/uploads/cropped-cropped-logo-gran-tv-yumur-32x32.webp</url>
	<title>EE.UU. y Reino Unido archivos - TV Yumurí</title>
	<link>https://www.tvyumuri.cu/tag/ee-uu-y-reino-unido/</link>
	<width>32</width>
	<height>32</height>
</image> 
	<item>
		<title>Establecen directrices para el desarrollo seguro de la IA</title>
		<link>https://www.tvyumuri.cu/ciencia/directrices-desarrollo-seguro-ia/</link>
					<comments>https://www.tvyumuri.cu/ciencia/directrices-desarrollo-seguro-ia/#respond</comments>
		
		<dc:creator><![CDATA[Redacción TV Yumurí]]></dc:creator>
		<pubDate>Mon, 27 Nov 2023 15:03:45 +0000</pubDate>
				<category><![CDATA[Ciencia]]></category>
		<category><![CDATA[desarrollo seguro de la IA]]></category>
		<category><![CDATA[EE.UU. y Reino Unido]]></category>
		<category><![CDATA[TVYumuri]]></category>
		<guid isPermaLink="false">https://www.tvyumuri.cu/?p=46156</guid>

					<description><![CDATA[<p>Agencias de inteligencia y seguridad de 18 países, incluidos EE.UU. y Reino Unido, acordaron respaldar...</p>
<p>La entrada <a href="https://www.tvyumuri.cu/ciencia/directrices-desarrollo-seguro-ia/">Establecen directrices para el desarrollo seguro de la IA</a> se publicó primero en <a href="https://www.tvyumuri.cu">TV Yumurí</a>.</p>
]]></description>
										<content:encoded><![CDATA[<p><strong>Agencias de inteligencia y seguridad de 18 países, incluidos EE.UU. y Reino Unido, acordaron respaldar las primeras directrices a nivel mundial que garantizan que la inteligencia artificial se diseñe, desarrolle e implemente de manera segura, <span style="color: #000080;"><a style="color: #000080;" href="https://www.ncsc.gov.uk/news/uk-develops-new-global-guidelines-ai-security" target="_blank" rel="noopener noreferrer">informó</a></span> este lunes el Centro Nacional de Seguridad Cibernética del Reino Unido (NCSC).</strong></p>
<p>Este conjunto de normas fue elaborado por el NCSC y la Agencia de Seguridad de Infraestructura y Ciberseguridad de EE.UU. (CISA), en colaboración con expertos del sector de la IA y otras 21 agencias y ministerios internacionales.</p>
<p>De acuerdo con los autores de los lineamientos, estos <span style="color: #000080;"><a style="color: #000080;" href="https://www.ncsc.gov.uk/collection/guidelines-secure-ai-system-development" target="_blank" rel="noopener noreferrer">servirán</a></span> de guía para que <strong>los desarrolladores tomen decisiones informadas relacionadas con la ciberseguridad</strong> al momento de crear sistemas de IA, específicamente aquellos que hayan sido programados sobre herramientas y servicios proporcionados por entidades externas.</p>
<p>Asimismo, desatacaron que la implementación de estas pautas, que están basadas en un enfoque de <strong>«seguridad por diseño»</strong>, asegurará que los modelos de IA «funcionen según lo previsto, estén disponibles cuando sea necesario y funcionen sin revelar datos confidenciales a partes no autorizadas».</p>
<p>Las naciones que firmaron las nuevas directrices, que se encuentran divididas en cuatro áreas (diseño seguro, desarrollo seguro, implementación segura y operación y mantenimiento seguros) incluyen a <strong>Alemania, Italia, República Checa, Estonia, Polonia, Australia, Chile, Israel, Nigeria y Singapur</strong>.</p>
<p>«Este esfuerzo conjunto reafirma nuestra misión de proteger la infraestructura crítica y refuerza la importancia de la asociación internacional para asegurar nuestro futuro digital», indicó la directora de la CISA, Jen Easterly, quien <span style="color: #000080;"><a style="color: #000080;" href="https://www.reuters.com/technology/us-britain-other-countries-ink-agreement-make-ai-secure-by-design-2023-11-27/" target="_blank" rel="noopener noreferrer">agregó</a></span> que estas normativas representan «un acuerdo de que lo más importante que hay que hacer en la fase de diseño [de los sistemas de IA] es la seguridad».</p>
<p>El Parlamento Europeo <span style="color: #000080;"><a style="color: #000080;" href="https://www.europarl.europa.eu/news/es/headlines/society/20230601STO93804/ley-de-ia-de-la-ue-primera-normativa-sobre-inteligencia-artificial" target="_blank" rel="noopener noreferrer">aprobó</a></span> el pasado mes de junio una ley que regula la utilización de la IA. Esta legislación clasifica a las herramientas de IA de acuerdo con su <strong>nivel de riesgo percibido</strong>, en términos de seguridad y de derechos fundamentales de los usuarios. Por otro lado, Alemania, Francia e Italia<span style="color: #000080;"> <a style="color: #000080;" href="https://www.reuters.com/technology/germany-france-italy-reach-agreement-future-ai-regulation-2023-11-18/" target="_blank" rel="noopener noreferrer">llegaron</a></span> recientemente a un acuerdo sobre la «autorregulación obligatoria» de los modelos básicos de IA «a través de códigos de conducta».</p>
<p>En el caso de EE.UU., el presidente Joe Biden <span style="color: #000080;"><a style="color: #000080;" href="https://actualidad.rt.com/actualidad/486114-biden-emite-orden-historica-inteligencia-artificial" target="_blank" rel="noopener noreferrer">emitió</a></span> el pasado 30 de octubre una orden ejecutiva «histórica» para gestionar los riesgos de la inteligencia artificial y «fomentar el liderazgo estadounidense en todo el mundo». Con esta medida, se buscará exigir a las empresas que representen un riesgo grave para la seguridad nacional que compartan información crítica, incluidas las pruebas de seguridad del equipo, en el marco de nuevos estándares para la seguridad y protección de la IA. (ALH)</p>
<p><a href="https://actualidad.rt.com/actualidad/490100-eeuu-reino-unido-directrices-desarrollo-ia"><strong><span style="color: #000080;">Tomado de Rusia Today</span></strong></a></p>
<p>La entrada <a href="https://www.tvyumuri.cu/ciencia/directrices-desarrollo-seguro-ia/">Establecen directrices para el desarrollo seguro de la IA</a> se publicó primero en <a href="https://www.tvyumuri.cu">TV Yumurí</a>.</p>
]]></content:encoded>
					
					<wfw:commentRss>https://www.tvyumuri.cu/ciencia/directrices-desarrollo-seguro-ia/feed/</wfw:commentRss>
			<slash:comments>0</slash:comments>
		
		
			</item>
	</channel>
</rss>
