<?xml version="1.0" encoding="UTF-8"?><rss version="2.0"
	xmlns:content="http://purl.org/rss/1.0/modules/content/"
	xmlns:wfw="http://wellformedweb.org/CommentAPI/"
	xmlns:dc="http://purl.org/dc/elements/1.1/"
	xmlns:atom="http://www.w3.org/2005/Atom"
	xmlns:sy="http://purl.org/rss/1.0/modules/syndication/"
	xmlns:slash="http://purl.org/rss/1.0/modules/slash/"
	>

<channel>
	<title>Actualidad Legal - bots.blog_</title>
	<atom:link href="https://bots.blog/category/actualidad-legal/feed/" rel="self" type="application/rss+xml" />
	<link>https://bots.blog/category/actualidad-legal/</link>
	<description></description>
	<lastBuildDate>Mon, 29 Dec 2025 18:54:25 +0000</lastBuildDate>
	<language>es</language>
	<sy:updatePeriod>
	hourly	</sy:updatePeriod>
	<sy:updateFrequency>
	1	</sy:updateFrequency>
	<generator>https://wordpress.org/?v=6.9.4</generator>

<image>
	<url>https://bots.blog/wp-content/uploads/2024/03/Bots.blog_-3-80x80.png</url>
	<title>Actualidad Legal - bots.blog_</title>
	<link>https://bots.blog/category/actualidad-legal/</link>
	<width>32</width>
	<height>32</height>
</image> 
	<item>
		<title>AESIA publica 16 guías prácticas para impulsar la innovación en IA conforme al Reglamento Europeo</title>
		<link>https://bots.blog/aesia-publica-16-guias-practicas-para-impulsar-la-innovacion-en-ia-conforme-al-reglamento-europeo/</link>
		
		<dc:creator><![CDATA[bots.blog]]></dc:creator>
		<pubDate>Mon, 29 Dec 2025 18:54:24 +0000</pubDate>
				<category><![CDATA[Actualidad]]></category>
		<category><![CDATA[Actualidad Legal]]></category>
		<category><![CDATA[Atención al cliente]]></category>
		<category><![CDATA[Ciberseguridad]]></category>
		<category><![CDATA[IA Generativa]]></category>
		<category><![CDATA[#Ciberseguridad]]></category>
		<category><![CDATA[#IAConversacional]]></category>
		<category><![CDATA[#innovación]]></category>
		<guid isPermaLink="false">https://bots.blog/?p=6601</guid>

					<description><![CDATA[<p>En diciembre de 2025, la Agencia Española de Supervisión de Inteligencia Artificial (AESIA) lanzó 16 guías prácticas que&#8230;</p>
<p>La entrada <a href="https://bots.blog/aesia-publica-16-guias-practicas-para-impulsar-la-innovacion-en-ia-conforme-al-reglamento-europeo/">AESIA publica 16 guías prácticas para impulsar la innovación en IA conforme al Reglamento Europeo</a> se publicó primero en <a href="https://bots.blog">bots.blog_</a>.</p>
]]></description>
										<content:encoded><![CDATA[
<p>En diciembre de 2025, la Agencia Española de Supervisión de Inteligencia Artificial (<a href="https://aesia.digital.gob.es/es">AESIA</a>) lanzó 16 guías prácticas que marcan un hito en la implementación del Reglamento Europeo de Inteligencia Artificial (RIA o AI Act). Estas herramientas, fruto del sandbox regulatorio pionero en España, ofrecen a empresas, startups y desarrolladores recomendaciones concretas para cumplir con la normativa europea mientras fomentan la innovación responsable en sistemas de IA de alto riesgo.</p>



<p>El <strong>sandbox regulatorio</strong>, iniciado en abril de 2025 por la Secretaría de Estado de Digitalización e Inteligencia Artificial, permitió probar 12 sistemas de IA reales en colaboración con empresas de diversos sectores, autoridades como la AESIA, la AEPD y expertos independientes. Esta experiencia práctica ha generado guías que no solo explican obligaciones legales, sino que proporcionan ejemplos, checklists y orientaciones operativas para diseñar, desplegar y supervisar sistemas de IA éticos, seguros y competitivos.</p>



<h3 id="por-que-estas-guias-representan-una-oportunidad-para-la-innovacion-en-ia" class="wp-block-heading">¿Por qué estas guías representan una oportunidad para la innovación en IA?</h3>



<p>El RIA clasifica los sistemas de IA según su nivel de riesgo, imponiendo requisitos más estrictos a aquellos de alto riesgo (como en salud, empleo o biometría). Las guías de AESIA facilitan esta transición al ofrecer un enfoque práctico y colaborativo, permitiendo a las organizaciones españolas liderar en Europa un ecosistema de IA confiable y avanzado.</p>



<p>Según el ministro para la Transformación Digital y de la Función Pública, Óscar López, estas publicaciones «facilitan el cumplimiento del Reglamento Europeo de Inteligencia Artificial para sistemas de IA de alto riesgo» y posicionan a España como referente en innovación responsable.</p>



<p>Las guías destacan aspectos clave como la <strong>ciberseguridad</strong>, la gestión de datos y la transparencia, áreas críticas para el desarrollo de IA generativa y modelos avanzados. Al proporcionar herramientas de autoevaluación, permiten a las empresas identificar oportunidades de mejora y acelerar el lanzamiento de soluciones innovadoras al mercado.</p>



<p>Las 16 guías prácticas de AESIA: un catálogo completo para el desarrollo de IA</p>



<p>Las guías se dividen en bloques introductorios, técnicos y de apoyo. Todas están disponibles gratuitamente en la web oficial de AESIA (aesia.digital.gob.es/es/guias), junto con un compendio de checklists y ejemplos en formato ZIP.</p>



<h3 id="lista-completa" class="wp-block-heading">Lista Completa:</h3>



<ol class="wp-block-list">
<li><strong>Guía introductoria al reglamento de IA</strong> – Base conceptual del RIA.</li>



<li><strong>Guía práctica y ejemplos para entender el Reglamento de IA</strong> – Casos hipotéticos de sistemas de alto riesgo.</li>



<li><strong>Guía Evaluación de conformidad</strong> – Procedimientos para verificar el cumplimiento.</li>



<li><strong>Guía del sistema de gestión de la calidad</strong> – Implementación de procesos de calidad inspirados en estándares como ISO 9001.</li>



<li><strong>Guía de gestión de riesgos</strong> – Identificación y mitigación proactiva a lo largo del ciclo de vida.</li>



<li><strong>Guía Vigilancia humana</strong> – Supervisión efectiva para evitar automatización excesiva.</li>



<li><strong>Guía de datos y gobernanza de datos</strong> – Mejores prácticas en manejo de datos para IA.</li>



<li><strong>Guía Transparencia</strong> – Comunicación clara a usuarios y afectados.</li>



<li><strong>Guía de Precisión</strong> – Métricas y validación de rendimiento.</li>



<li><strong>Guía Solidez</strong> – Robustez frente a adversidades y cambios.</li>



<li><strong>Guía Ciberseguridad</strong> – Protección contra amenazas específicas en IA.</li>



<li><strong>Guía de registros</strong> – Mantenimiento de logs y trazabilidad.</li>



<li><strong>Guía Vigilancia poscomercialización</strong> – Monitoreo continuo tras el lanzamiento.</li>



<li><strong>Guía Gestión de Incidentes</strong> – Protocolos de respuesta rápida.</li>



<li><strong>Guía Documentación Técnica</strong> – Elaboración detallada para autoridades.</li>



<li><strong>Manual de checklist de guías de requisitos</strong> – Herramienta práctica para autoevaluación.</li>
</ol>



<p>Especial mención merece la <strong>Guía de Ciberseguridad</strong>, que ofrece recomendaciones para fortalecer sistemas de IA contra ataques, un pilar esencial para aplicaciones en sectores críticos como la salud o la financech. Igualmente, la <strong>Guía de datos y gobernanza</strong> abre posibilidades en IA generativa al promover el uso ético de grandes volúmenes de datos.</p>



<figure class="wp-block-image size-large"><img fetchpriority="high" decoding="async" width="1024" height="572" src="https://bots.blog/wp-content/uploads/2025/12/AESIA-1024x572.webp" alt="bots.blog AESIA publica 16 guías prácticas" class="wp-image-6604" srcset="https://bots.blog/wp-content/uploads/2025/12/AESIA-1024x572.webp 1024w, https://bots.blog/wp-content/uploads/2025/12/AESIA-scaled-600x335.webp 600w, https://bots.blog/wp-content/uploads/2025/12/AESIA-300x167.webp 300w, https://bots.blog/wp-content/uploads/2025/12/AESIA-768x429.webp 768w, https://bots.blog/wp-content/uploads/2025/12/AESIA-1536x857.webp 1536w, https://bots.blog/wp-content/uploads/2025/12/AESIA-2048x1143.webp 2048w, https://bots.blog/wp-content/uploads/2025/12/AESIA-380x212.webp 380w, https://bots.blog/wp-content/uploads/2025/12/AESIA-550x307.webp 550w, https://bots.blog/wp-content/uploads/2025/12/AESIA-800x447.webp 800w, https://bots.blog/wp-content/uploads/2025/12/AESIA-1160x647.webp 1160w, https://bots.blog/wp-content/uploads/2025/12/AESIA-scaled.webp 2560w" sizes="(max-width: 1024px) 100vw, 1024px" /><figcaption class="wp-element-caption">Créditos: Nano Banana</figcaption></figure>



<h3 id="el-impacto-en-la-innovacion-y-las-posibilidades-futuras" class="wp-block-heading">El impacto en la innovación y las posibilidades futuras</h3>



<p>Estas guías no solo ayudan al cumplimiento, sino que impulsan la competitividad. Empresas españolas pueden ahora desarrollar IA de alto riesgo con mayor confianza, sabiendo que cuentan con orientaciones alineadas con estándares europeos pendientes. El enfoque colaborativo del sandbox demuestra que regulación e innovación pueden avanzar de la mano.</p>



<p>Para startups y pymes, las checklists representan una ventaja: permiten evaluar internamente el estado de sus proyectos y ajustar iterativamente, reduciendo tiempos de desarrollo. En un contexto donde la IA generativa transforma industrias, estas herramientas facilitan la creación de modelos transparentes, precisos y seguros.</p>



<p>España se posiciona así como líder europeo en IA responsable. La AESIA continuará actualizando estas guías conforme evolucionen las normas armonizadas de la Comisión Europea, asegurando que el ecosistema nacional permanezca a la vanguardia.</p>



<h3 id="un-paso-adelante-hacia-una-ia-innovadora-y-confiable" class="wp-block-heading">Un paso adelante hacia una IA innovadora y confiable</h3>



<p>La publicación de estas 16 guías por AESIA en diciembre de 2025 abre un horizonte de posibilidades para el sector de la inteligencia artificial en España y Europa. Al combinar rigor normativo con practicidad, invitan a empresas y desarrolladores a innovar sin límites, creando soluciones que beneficien a la sociedad.</p>



<p>Si estás desarrollando proyectos de IA, descarga las guías desde el sitio oficial de AESIA y aprovecha estas herramientas para llevar tus ideas al siguiente nivel. El futuro de la IA responsable empieza ahora.</p>



<p></p>
<p>La entrada <a href="https://bots.blog/aesia-publica-16-guias-practicas-para-impulsar-la-innovacion-en-ia-conforme-al-reglamento-europeo/">AESIA publica 16 guías prácticas para impulsar la innovación en IA conforme al Reglamento Europeo</a> se publicó primero en <a href="https://bots.blog">bots.blog_</a>.</p>
]]></content:encoded>
					
		
		
			</item>
		<item>
		<title>Seguridad y Legislación en Chatbots de IA</title>
		<link>https://bots.blog/seguridad-y-legislacion-en-chatbots-de-ia/</link>
		
		<dc:creator><![CDATA[bots.blog]]></dc:creator>
		<pubDate>Sun, 16 Nov 2025 14:07:41 +0000</pubDate>
				<category><![CDATA[Actualidad]]></category>
		<category><![CDATA[Actualidad Legal]]></category>
		<category><![CDATA[Ciberseguridad]]></category>
		<category><![CDATA[IA Generativa]]></category>
		<category><![CDATA[#Ciberseguridad]]></category>
		<category><![CDATA[#Innovación AI]]></category>
		<category><![CDATA[#Legal]]></category>
		<category><![CDATA[#Modelos IA]]></category>
		<guid isPermaLink="false">https://bots.blog/?p=6530</guid>

					<description><![CDATA[<p>Novedades, Innovaciones y Perspectivas para 2025 Imagina asistentes virtuales que no solo responden consultas en segundos, sino que&#8230;</p>
<p>La entrada <a href="https://bots.blog/seguridad-y-legislacion-en-chatbots-de-ia/">Seguridad y Legislación en Chatbots de IA</a> se publicó primero en <a href="https://bots.blog">bots.blog_</a>.</p>
]]></description>
										<content:encoded><![CDATA[
<p><strong>Novedades, Innovaciones y Perspectivas para 2025</strong></p>



<p>Imagina asistentes virtuales que no solo responden consultas en segundos, sino que anticipan necesidades, personalizan experiencias y optimizan procesos en industrias como la salud, el comercio y la educación. Según proyecciones de expertos, el mercado de chatbots de IA generativa alcanzará los 15.000 millones de dólares para finales de 2025, impulsado por avances en procesamiento del lenguaje natural (NLU) y multimodalidad. Pero este crecimiento no ocurre en el vacío: la seguridad y la legislación emergen como pilares que no limitan, sino que potencian estas posibilidades, fomentando un ecosistema de confianza y ética. En este artículo, exploramos las actualizaciones recientes, las previsiones y las novedades que están moldeando el futuro de los chatbots, basándonos en fuentes fiables como EL PAÍS, <a href="https://es.euronews.com/">Euronews</a> y la <a href="https://www.bbc.com/">BBC</a>. Descubre cómo estas regulaciones abren puertas a una IA más inclusiva y eficiente.</p>



<h2 id="actualizaciones-legislativas-un-marco-global-para-la-confianza-en-la-ia-conversacional" class="wp-block-heading">Actualizaciones Legislativas: Un Marco Global para la Confianza en la IA Conversacional</h2>



<p>El 2025 ha sido un año pivotal para la regulación de la IA, con avances que equilibran innovación y responsabilidad. En la Unión Europea, el <a href="https://artificialintelligenceact.eu/">AI Act</a> —aprobado en 2024 y plenamente en vigor desde febrero de 2025— clasifica los sistemas de IA por niveles de riesgo, colocando a los chatbots de alto impacto (como aquellos en servicios públicos o salud) en categorías que exigen evaluaciones rigurosas de transparencia y no discriminación. Esta normativa no es un freno, sino un catalizador: obliga a las empresas a etiquetar contenidos generados por IA, lo que facilita la integración de chatbots en flujos de trabajo colaborativos entre humanos y máquinas.</p>



<h2 id="en-espana" class="wp-block-heading">En España..</h2>



<p>El Gobierno ha dado pasos concretos para alinear el país con esta visión europea. En marzo de 2025, se aprobó la norma para el «buen uso de la IA», que requiere la etiquetación obligatoria de contenidos creados con esta tecnología, previniendo confusiones y promoviendo la alfabetización digital. Además, el borrador del Estatuto del Artista, presentado el mismo mes, protege la imagen y voz de profesionales contra usos no autorizados en entrenamientos de IA, abriendo vías para colaboraciones éticas en entretenimiento y marketing. Paralelamente, en enero, se lanzó Alia, el primer modelo de IA español, diseñado con énfasis en privacidad y accesibilidad, permitiendo a empresas locales desarrollar chatbots soberanos que cumplan con el RGPD sin depender de gigantes extranjeros.</p>



<p>Al otro lado del Atlántico, Estados Unidos avanza con iniciativas estatales. En septiembre de 2025, California está a punto de aprobar el proyecto de ley SB243, que regularía los chatbots compañeros de IA, responsabilizando a las empresas por sus comportamientos y fomentando diseños que prioricen la seguridad emocional de los usuarios. La FTC, por su parte, investiga chatbots por su impacto en la seguridad infantil, lo que podría derivar en estándares federales que incentiven innovaciones como filtros de edad adaptativos. Estas medidas no solo mitigan riesgos, sino que estimulan la competencia: empresas que cumplan tempranamente ganan ventaja en mercados globales, atrayendo inversores y usuarios que valoran la transparencia.</p>



<p><strong>Normativa clave</strong></p>



<details class="wp-block-details is-layout-flow wp-block-details-is-layout-flow"><summary></summary>
<figure class="wp-block-table"><table class="has-fixed-layout"><thead><tr><th>Normativa Clave 2025</th><th>Región</th><th>Impacto en Chatbots</th><th>Beneficios Innovadores</th></tr></thead><tbody><tr><td>AI Act</td><td>UE</td><td>Clasificación por riesgo y etiquetado</td><td>Facilita integraciones seguras en apps empresariales</td></tr><tr><td>Norma Buen Uso IA</td><td>España</td><td>Etiquetado obligatorio de contenidos</td><td>Mejora la confianza en asistentes virtuales educativos</td></tr><tr><td>SB243</td><td>California, EE.UU.</td><td>Responsabilidad por comportamientos</td><td>Impulsa chatbots éticos para salud mental</td></tr><tr><td>Investigación FTC</td><td>EE.UU.</td><td>Enfoque en seguridad infantil</td><td>Avances en personalización familiar segura</td></tr></tbody></table></figure>
</details>



<p></p>



<h2 id="innovaciones-en-seguridad-protocolos-que-potencian-la-interaccion-humana-ia" class="wp-block-heading">Innovaciones en Seguridad: Protocolos que Potencian la Interacción Humana-IA</h2>



<p>La seguridad en chatbots no se trata solo de cumplimiento, sino de oportunidades para elevar la experiencia del usuario. OpenAI, líder en IA generativa, ha sido protagonista de novedades en 2025. En octubre, tras una polémica sobre límites en ChatGPT, la compañía anunció revisiones que incluyen restricciones mejoradas y colaboraciones con expertos externos para protocolos de protección. Un caso destacado en noviembre involucró a un chatbot que, al simular empatía excesiva, generó debates éticos; OpenAI respondió con actualizaciones que equilibran la calidez conversacional con salvaguardas, permitiendo interacciones más auténticas y seguras.</p>



<p>En el ámbito de la protección de datos, un informe de septiembre de 2025 destaca cómo las empresas están respondiendo al marco regulatorio con encriptación avanzada y anonimización en chatbots conversacionales. Por ejemplo, Meta enfrenta investigaciones por conversaciones inapropiadas con menores en agosto, lo que ha acelerado el desarrollo de chatbots con verificación de contexto emocional, una innovación que podría extenderse a terapias virtuales accesibles. Un estudio reciente reveló que los chatbots pueden ser «manipulados» con tácticas psicológicas, pero esto ha impulsado contramedidas como modelos de IA agentiva que aprenden de interacciones seguras, prediciendo y previniendo desviaciones.</p>



<p>Estas innovaciones se alinean con tendencias globales: en enero de 2025, empresas deben eliminar sistemas de IA inseguros en solo tres días, lo que ha acelerado la adopción de auditorías automáticas en chatbots, reduciendo vulnerabilidades y abriendo puertas a despliegues en tiempo real. El resultado es una IA más resiliente, donde la seguridad no es un costo, sino una ventaja competitiva.</p>



<h2 id="previsiones-para-2026-hacia-una-ia-multimodal-y-colaborativa" class="wp-block-heading">Previsiones para 2026: Hacia una IA Multimodal y Colaborativa</h2>



<p>Mirando hacia el futuro, los expertos prevén un 2026 dominado por la «IA estrecha» —especializada en dominios específicos—, que potenciará chatbots hiperpersonalizados. Según la BBC, se crearán normas ISO e IEEE para evaluar chatbots, estandarizando la multimodalidad (texto, voz, imágenes) y facilitando su integración en dispositivos cotidianos. IBM anticipa que los agentes de IA —chatbots autónomos— evolucionarán de expectativas a realidades prácticas, gestionando tareas complejas con capas de seguridad integradas, como en finanzas o logística.</p>



<p>En términos regulatorios, se espera una armonización global: la UE influirá en Latinoamérica y Asia, con España liderando en modelos como Alia para exportar estándares éticos. Predicciones de chatbots como ChatGPT o1 señalan la expansión de la IA multimodal, con énfasis en privacidad por diseño, lo que podría multiplicar las aplicaciones en e-commerce, donde chatbots predictivos aumenten conversiones en un 30%. Para 2026, la hiperpersonalización —impulsada por NLU avanzada y voz IA— será norma, siempre bajo marcos que garanticen equidad.</p>



<h2 id="posibilidades-transformadoras-chatbots-seguros-como-motor-de-innovacion" class="wp-block-heading">Posibilidades Transformadoras: Chatbots Seguros como Motor de Innovación</h2>



<p>Las regulaciones de 2025 no solo protegen, sino que desatan potenciales inimaginables. En salud, chatbots seguros como los de Alia podrían democratizar consultas preventivas, reduciendo listas de espera y personalizando tratamientos. En educación, la etiquetación obligatoria fomenta tutores virtuales inclusivos, adaptados a diversidad cultural. Y en negocios, la automatización integral proyectada para 2025 liberará a profesionales para roles creativos, con chatbots manejando lo rutinario.</p>



<p>Aunque no es el foco principal, empresas como Doobot.ai ejemplifican cómo la innovación local en chatbots éticos puede escalar globalmente, integrando seguridad en soluciones para customer service. En conjunto, estas novedades posicionan a los chatbots como aliados empoderadores, no meras herramientas.</p>



<h2 id="conclusion-un-futuro-brillante-para-la-ia-conversacional" class="wp-block-heading">Conclusión: Un Futuro Brillante para la IA Conversacional</h2>



<p>El 2025 marca el inicio de una era donde la seguridad y la legislación en chatbots de IA no son obstáculos, sino trampolines hacia posibilidades ilimitadas. Con actualizaciones como el AI Act y Alia, y previsiones de multimodalidad ética, estamos ante una revolución que prioriza el humano en el centro. Fuentes como EL PAÍS y Euronews coinciden: esta evolución no solo innova, sino que construye confianza colectiva.</p>



<p></p>



<p></p>



<p></p>
<p>La entrada <a href="https://bots.blog/seguridad-y-legislacion-en-chatbots-de-ia/">Seguridad y Legislación en Chatbots de IA</a> se publicó primero en <a href="https://bots.blog">bots.blog_</a>.</p>
]]></content:encoded>
					
		
		
			</item>
		<item>
		<title>La nueva Regulacion Europea de Datos ¿Te afecta?</title>
		<link>https://bots.blog/la-nueva-regulacion-europea-de-datos-te-afecta/</link>
		
		<dc:creator><![CDATA[bots.blog]]></dc:creator>
		<pubDate>Tue, 15 Jul 2025 08:15:28 +0000</pubDate>
				<category><![CDATA[Actualidad]]></category>
		<category><![CDATA[Actualidad Legal]]></category>
		<category><![CDATA[#Europa]]></category>
		<category><![CDATA[#Legal]]></category>
		<category><![CDATA[#Regulación]]></category>
		<guid isPermaLink="false">https://bots.blog/?p=6456</guid>

					<description><![CDATA[<p>¿Habías oído hablar de esta nueva regulación europea? Se trata de un reglamento que entró en vigor el&#8230;</p>
<p>La entrada <a href="https://bots.blog/la-nueva-regulacion-europea-de-datos-te-afecta/">La nueva Regulacion Europea de Datos ¿Te afecta?</a> se publicó primero en <a href="https://bots.blog">bots.blog_</a>.</p>
]]></description>
										<content:encoded><![CDATA[
<p>¿Habías oído hablar de esta nueva regulación europea?</p>



<p>Se trata de un reglamento que entró en vigor el 11 de enero 2024, y que entrará en aplicación completa el próximo 12 de septiembre 2025. Aquí te sintetizamos todas las claves.</p>



<p><strong>¿Qué es el Data Act?</strong></p>



<p>La <strong>Data Act</strong> europea no es una norma abstracta: cambia de forma tangible la materia prima que alimenta los chatbots y voicebots, y con ello la forma en que ventas y servicio al cliente usan la IA. A continuación, las claves concretas y cómo se traducen en impacto operativo, con ejemplos prácticos para equipos de producto y operaciones.</p>



<p><strong>¿Cuáles son las claves?</strong></p>



<p><strong>1. Derecho de acceso a los datos generados por productos conectados</strong><br>La norma reconoce que las personas y empresas que usan dispositivos conectados (desde termostatos a vehículos) tienen derecho a acceder y portar los datos que esos dispositivos generan. Eso incluye telemetría y registros de uso que, hasta ahora, podían quedar atrapados en plataformas cerradas. Para un chatbot esto significa disponer de <strong>más contexto operativo</strong>: por ejemplo, un asistente posventa puede usar telemetría de un lavavajillas para diagnosticar un fallo antes de abrir ticket y proponer la pieza adecuada al cliente.</p>



<p><strong>2. Límites legales y protección de secretos empresariales</strong><br>Acceder a datos no es carta blanca: la Acta prohíbe usar esos datos para crear un producto conectado competidor y protege secretos empresariales. Además, queda preservada la aplicación del <strong>GDPR</strong>: los datos personales solo pueden compartirse con base legal (consentimiento, contrato, etc.). En la práctica, un chatbot que personalice ofertas con datos de uso tendrá que <strong>anonymizar o segmentar</strong> información sensible y pedir consentimiento claro si enlaza datos personales con propuestas comerciales.</p>



<p><strong>3. Contratos más equitativos — ventaja para pymes y proveedores de servicios</strong><br>La Data Act incorpora medidas para evitar cláusulas contractuales abusivas en acuerdos de acceso a datos y plantea modelos contractuales tipo. Para startups que construyen chatbots esto reduce el riesgo de quedar bloqueadas por un proveedor que no comparte datos útiles: imaginemos una pyme que ofrece mantenimiento predictivo; con contratos más equitativos podrá obtener los logs necesarios para alimentar sus modelos y mejorar tasas de resolución en primer contacto.</p>



<p><strong>4. Menos vendor lock-in en la nube: impacto en costes y rendimiento</strong><br>La norma obliga a requisitos de interoperabilidad y facilita el cambio de proveedores de procesamiento de datos (cloud/edge), incluyendo medidas para mitigar cargos por egress. Eso abre la puerta a trasladar modelos de inferencia a la plataforma que ofrezca mejor latencia o precio. Para un servicio de atención que use LLMs en nube, esto puede traducirse en bajar latencias de respuesta del chatbot y reducir costes por petición, permitiendo escalar conversaciones automatizadas sin disparar factura.</p>



<p><strong>5. Excepciones y acceso público en emergencias — transparencia y trazabilidad</strong><br>La Data Act contempla casos excepcionales en que autoridades pueden solicitar ciertos datos, y simultáneamente introduce salvaguardas frente a accesos indebidos desde terceros países. Para operaciones de IA, esto obliga a mantener <strong>registros de acceso</strong> y diseñar procesos que documenten quién consultó qué dato y con qué propósito —imprescindible si un regulador solicita auditoría sobre cómo se usaron datos para entrenar un modelo de diálogo.</p>



<p><strong>Qué deben hacer ya los equipos de producto y soporte</strong></p>



<ol class="wp-block-list">
<li><strong>Mapear fuentes de datos</strong>: identificar todos los orígenes (IoT, CRM, logs, telemetría) que podrían nutrir RAG o retraining.</li>



<li><strong>Revisar contratos</strong>: incorporar cláusulas que permitan acceso necesario y exigir la renuncia a barreras abusivas; usar los modelos contractuales cuando existan.</li>



<li><strong>Segregar y anonimizar</strong>: implantar pipelines que separen datos personales de telemetría y aplicar técnicas de minimización.</li>



<li><strong>Trazabilidad y auditoría</strong>: loggear accesos a datos y versiones de modelos (qué datos usó cada versión).</li>



<li><strong>Plan de vendor switching</strong>: diseñar exportabilidad de datos y pipelines reproducibles para poder migrar infraestructuras si conviene.</li>
</ol>



<p><strong>Un ejemplo operativo</strong></p>



<p>Un operador de flota proporciona a su proveedor chatbot acceso a telemetría de vehículos para automatizar comunicaciones a clientes sobre mantenimientos. Bajo la Data Act, el operador puede exigir la entrega estructurada de esos datos; el chatbot usa RAG para responder automáticamente “su vehículo muestra desgaste en frenos, le proponemos cita”, pero debe hacerlo con datos agregados o con consentimiento explícito del conductor si la recomendación enlaza a información personal.</p>



<p><strong>Conclusión</strong></p>



<p>La Data Act pone más datos sobre la mesa y, con ello, más posibilidades para chatbots que mejoren ventas (upsell personalizado) y servicio (diagnóstico automático). Pero transforma esos beneficios en responsabilidades: privacidad, segregación de secretos, contratos y gobernanza operativa pasan a ser requisitos ineludibles. Para equipos que diseñan asistentes conversacionales, la prioridad es técnica y legal: <strong>mapear, segregar, contractar y auditar</strong> antes de explotar los nuevos flujos de datos. La ventana es clara: quien lo haga bien ganará eficacia operativa sin exponerse a sanciones.</p>



<div style="height:90px" aria-hidden="true" class="wp-block-spacer"></div>
<p>La entrada <a href="https://bots.blog/la-nueva-regulacion-europea-de-datos-te-afecta/">La nueva Regulacion Europea de Datos ¿Te afecta?</a> se publicó primero en <a href="https://bots.blog">bots.blog_</a>.</p>
]]></content:encoded>
					
		
		
			</item>
		<item>
		<title>Meta y Spotify cuestionan la política IA de la Unión Europea</title>
		<link>https://bots.blog/meta-y-spotify-cuestionan-la-politica-ia-de-la-union-europea/</link>
		
		<dc:creator><![CDATA[bots.blog]]></dc:creator>
		<pubDate>Sun, 25 Aug 2024 11:31:53 +0000</pubDate>
				<category><![CDATA[Actualidad]]></category>
		<category><![CDATA[Actualidad Legal]]></category>
		<category><![CDATA[Ciberseguridad]]></category>
		<category><![CDATA[IA Generativa]]></category>
		<category><![CDATA[#IA]]></category>
		<category><![CDATA[#Meta]]></category>
		<category><![CDATA[#Spotify]]></category>
		<category><![CDATA[#UE]]></category>
		<guid isPermaLink="false">https://bots.blog/?p=6409</guid>

					<description><![CDATA[<p>Meta y Spotify han unido fuerzas para cuestionar la nueva legislación europea sobre inteligencia artificial, argumentando que las&#8230;</p>
<p>La entrada <a href="https://bots.blog/meta-y-spotify-cuestionan-la-politica-ia-de-la-union-europea/">Meta y Spotify cuestionan la política IA de la Unión Europea</a> se publicó primero en <a href="https://bots.blog">bots.blog_</a>.</p>
]]></description>
										<content:encoded><![CDATA[
<p>Meta y Spotify han unido fuerzas para cuestionar la nueva legislación europea sobre inteligencia artificial, argumentando que las regulaciones propuestas amenazan con sofocar la innovación en la industria tecnológica. </p>



<p>Ambas compañías han expresado su preocupación por el impacto que estas normas podrían tener en su capacidad para desarrollar y desplegar tecnologías de IA a gran escala, asegurando que las estrictas restricciones y requisitos podrían limitar su competitividad en el mercado global.</p>



<p>La Ley de IA, en proceso de aprobación en la Unión Europea, busca establecer un marco regulatorio estricto para el uso de inteligencia artificial en el continente. La normativa impondrá fuertes obligaciones a las empresas que operan con IA, como la necesidad de transparencia en los algoritmos, controles de riesgo y la prohibición de ciertas aplicaciones consideradas de “alto riesgo”. Estas medidas, aunque aplaudidas por defensores de la privacidad y la ética, han sido objeto de críticas por parte de la industria tecnológica, que teme que la burocracia y los altos costos de cumplimiento frenen la innovación y el crecimiento económico.</p>



<p>Meta, propietaria de plataformas como Facebook e Instagram, y Spotify, el gigante del streaming musical, han manifestado que estas restricciones podrían ser especialmente perjudiciales para las startups y las pequeñas empresas tecnológicas, que carecen de los recursos para cumplir con las nuevas normativas. Además, señalan que la ley podría poner en desventaja a las compañías europeas frente a sus competidoras estadounidenses y asiáticas, que operan en entornos regulatorios más flexibles.</p>



<p>La preocupación se extiende también a las implicaciones que estas regulaciones podrían tener para el desarrollo de nuevas aplicaciones de IA, como las utilizadas en la personalización de contenidos, la publicidad digital y la interacción con usuarios a través de chatbots. Ambas compañías han instado a los legisladores europeos a reconsiderar ciertos aspectos de la ley, abogando por un enfoque más equilibrado que permita proteger los derechos de los ciudadanos sin frenar el progreso tecnológico.</p>



<p>En respuesta, los responsables de la legislación argumentan que la Ley de IA es necesaria para garantizar que la inteligencia artificial se desarrolle de manera ética y responsable, minimizando los riesgos para la sociedad. Sin embargo, la batalla entre innovación y regulación promete intensificarse a medida que la ley se acerque a su aprobación final, con implicaciones significativas para el futuro del sector tecnológico en Europa.</p>
<p>La entrada <a href="https://bots.blog/meta-y-spotify-cuestionan-la-politica-ia-de-la-union-europea/">Meta y Spotify cuestionan la política IA de la Unión Europea</a> se publicó primero en <a href="https://bots.blog">bots.blog_</a>.</p>
]]></content:encoded>
					
		
		
			</item>
		<item>
		<title>Jornada Ministerio Sanidad: «Retos y oportunidades para España de la aplicación de la IA en los espacios de datos sanitarios”</title>
		<link>https://bots.blog/jornada-ministerio-sanidad-retos-y-oportunidades-para-espana-de-la-aplicacion-de-la-ia-en-los-espacios-de-datos-sanitarios/</link>
		
		<dc:creator><![CDATA[bots.blog]]></dc:creator>
		<pubDate>Tue, 02 Jul 2024 12:48:29 +0000</pubDate>
				<category><![CDATA[Actualidad]]></category>
		<category><![CDATA[Actualidad Legal]]></category>
		<category><![CDATA[IA Generativa]]></category>
		<category><![CDATA[#IA]]></category>
		<category><![CDATA[#Sanidad]]></category>
		<guid isPermaLink="false">https://bots.blog/?p=6405</guid>

					<description><![CDATA[<p>Hace pocos días ha tenido lugar el encuentro «Retos y oportunidades para España de la aplicación de la&#8230;</p>
<p>La entrada <a href="https://bots.blog/jornada-ministerio-sanidad-retos-y-oportunidades-para-espana-de-la-aplicacion-de-la-ia-en-los-espacios-de-datos-sanitarios/">Jornada Ministerio Sanidad: «Retos y oportunidades para España de la aplicación de la IA en los espacios de datos sanitarios”</a> se publicó primero en <a href="https://bots.blog">bots.blog_</a>.</p>
]]></description>
										<content:encoded><![CDATA[
<p>Hace pocos días ha tenido lugar el encuentro «Retos y oportunidades para España de la aplicación de la IA en los espacios de datos sanitarios», organizado en colaboración con la Asociación Española de Bioempresas (AseBio).</p>



<p>El secretario de Estado, Javier Padilla, subrayó la importancia de la Inteligencia Artificial (IA) en el ámbito de la sanidad y enumeró las tres principales demandas que el sector sanitario puede hacer a la IA:</p>



<p>La primera, que sea un elemento que favorezca la equidad y la accesibilidad: “Creo que hay algo fundamental, que muchos de los filósofos que trabajan en el ámbito de la tecnología y la IA tienen siempre muy en cuenta, y es que, si las grandes innovaciones no son implantadas desde una perspectiva de equidad, tienen más capacidad de agrandar brechas, que de acortarlas.”</p>



<p>El segundo elemento, que resaltó Padilla, es que la Inteligencia Artificial tiene que tener la capacidad para catalizar procesos: “Que lo que ahora tarda días pueda tardar horas, y que lo que ahora tarda semanas pueda tardar días.”</p>



<h2 id="la-ia-debe-permitir-a-los-profesionales-sanitarios-disponer-de-mas-tiempo-para-dedicacion-a-los-pacientes" class="wp-block-heading">La IA debe permitir a los profesionales sanitarios disponer de más tiempo para dedicación a los pacientes</h2>



<p>Y el tercer elemento, el que realmente desde la práctica clínica sería fundamental para los profesionales, es el tiempo: “Que nuestros profesionales tengan más tiempo para poder hacer lo que saben hacer, que es tratar a la gente. Que puedan utilizar ese tiempo en preguntar, explorar o simplemente utilizar la inteligencia humana a lomos de la inteligencia artificial.”</p>



<p>Por su parte, Rocío Arroyo, presidenta de AseBio resaltó la necesidad de exista colaboración entre el sector público y privado “para avanzar rápido, llegar más lejos y mejorar nuestra posición como país en los espacios de datos sanitarios. Para tener impacto en la salud de los pacientes de manera eficiente y en la atención sanitaria, tenemos que construir las soluciones entre todos. Ojalá podamos repetir esta jornada todos los años porque será señal de que estamos trabajando en la misma dirección. No perdamos el ritmo».</p>



<p>En este sentido, aunque existen numerosas experiencias exitosas y de alto valor social en el uso de la Inteligencia Artificial en el campo de la salud, la mayoría son poco conocidas por su especificidad. Por este motivo, el evento ha puesto el foco en compartir estas experiencias de forma integral y con una perspectiva nacional para evitar así lagunas de conocimiento que puedan obstaculizar el aprovechamiento de la inversión pública en este ámbito.</p>



<p>“Nos encontramos en un momento crucial para la transformación del sistema sanitario”, concluyó Jorge Tello, coordinador del Grupo de Trabajo de Inteligencia Artificial y Nuevas Tecnologías de AseBio y Chief Strategy Officer de Savana, “porque disponemos como país de la voluntad, la experiencia, el talento y la financiación para liderar a nivel global una correcta aplicación de la Inteligencia Artificial en el ámbito de la Salud, desde el punto de vista humano, animal y ambiental. Solo nos queda coordinarnos adecuadamente entre todos los actores”. </p>
<p>La entrada <a href="https://bots.blog/jornada-ministerio-sanidad-retos-y-oportunidades-para-espana-de-la-aplicacion-de-la-ia-en-los-espacios-de-datos-sanitarios/">Jornada Ministerio Sanidad: «Retos y oportunidades para España de la aplicación de la IA en los espacios de datos sanitarios”</a> se publicó primero en <a href="https://bots.blog">bots.blog_</a>.</p>
]]></content:encoded>
					
		
		
			</item>
		<item>
		<title>Lefebvre incorpora IA generativa a la búsqueda de información jurídica</title>
		<link>https://bots.blog/lefebvre-incorpora-ia-generativa-busqueda-informacion-juridica/</link>
					<comments>https://bots.blog/lefebvre-incorpora-ia-generativa-busqueda-informacion-juridica/#respond</comments>
		
		<dc:creator><![CDATA[bots.blog]]></dc:creator>
		<pubDate>Thu, 26 Oct 2023 08:03:10 +0000</pubDate>
				<category><![CDATA[Actualidad Legal]]></category>
		<category><![CDATA[IA Generativa]]></category>
		<category><![CDATA[#ChatGPT]]></category>
		<category><![CDATA[#IAGenerativa]]></category>
		<category><![CDATA[#LefebvreSarrut]]></category>
		<category><![CDATA[#LegalidadIA]]></category>
		<guid isPermaLink="false">https://bots.blog/?p=5961</guid>

					<description><![CDATA[<p>Lefebvre Sarrut ha incorporado la IA Generativa&#160;en sus herramientas de búsqueda. Este avance convierte a la firma en&#8230;</p>
<p>La entrada <a href="https://bots.blog/lefebvre-incorpora-ia-generativa-busqueda-informacion-juridica/">Lefebvre incorpora IA generativa a la búsqueda de información jurídica</a> se publicó primero en <a href="https://bots.blog">bots.blog_</a>.</p>
]]></description>
										<content:encoded><![CDATA[
<p class="has-drop-cap is-cnvs-dropcap-bg-light">Lefebvre Sarrut ha incorporado la IA Generativa&nbsp;en sus herramientas de búsqueda. Este avance convierte a la firma en la primera en Europa en ofrecer respuestas autogeneradas por IA, para profesionales del derecho y asesoramiento empresarial.</p>



<h2 id="el-problema-de-la-fiabilidad" class="wp-block-heading"><strong><strong>El problema de la fiabilidad</strong></strong></h2>



<p>En un mundo donde la IA generativa, como la famosa ChatGPT, puede crear desde textos hasta imágenes y audios, el peligro reside en la fiabilidad de la información, Lefebvre informa que la novedad radica en la rigurosa selección de fuentes verificadas, centrando sus algoritmos exclusivamente en contenido jurídico actualizado. Así, evita los problemas inherentes a los datos obsoletos o no verificados que a menudo aquejan a las tecnologías generativas.</p>



<figure class="wp-block-image alignwide size-large is-style-rounded"><img decoding="async" width="1024" height="683" src="https://bots.blog/wp-content/uploads/2023/10/mujeres-alto-angulo-juntando-manos-1-1024x683.jpg" alt="Lefebvre incorpora IA generativa " class="wp-image-5962" srcset="https://bots.blog/wp-content/uploads/2023/10/mujeres-alto-angulo-juntando-manos-1-1024x683.jpg 1024w, https://bots.blog/wp-content/uploads/2023/10/mujeres-alto-angulo-juntando-manos-1-600x400.jpg 600w, https://bots.blog/wp-content/uploads/2023/10/mujeres-alto-angulo-juntando-manos-1-300x200.jpg 300w, https://bots.blog/wp-content/uploads/2023/10/mujeres-alto-angulo-juntando-manos-1-768x512.jpg 768w, https://bots.blog/wp-content/uploads/2023/10/mujeres-alto-angulo-juntando-manos-1-380x253.jpg 380w, https://bots.blog/wp-content/uploads/2023/10/mujeres-alto-angulo-juntando-manos-1-550x367.jpg 550w, https://bots.blog/wp-content/uploads/2023/10/mujeres-alto-angulo-juntando-manos-1-800x533.jpg 800w, https://bots.blog/wp-content/uploads/2023/10/mujeres-alto-angulo-juntando-manos-1-1160x773.jpg 1160w, https://bots.blog/wp-content/uploads/2023/10/mujeres-alto-angulo-juntando-manos-1.jpg 1500w" sizes="(max-width: 1024px) 100vw, 1024px" /><figcaption class="wp-element-caption">Imagen de <a href="https://www.freepik.es/foto-gratis/mujeres-alto-angulo-juntando-manos_33296485.htm#query=justificia%20e%20AI&amp;position=6&amp;from_view=search&amp;track=ais">Freepik</a></figcaption></figure>



<h2 id="amplia-gama-de-informacion" class="wp-block-heading"><strong><strong>Amplia gama de información</strong></strong></h2>



<p>Con esta IA, la firma procesa una amplia gama de información, desde la doctrina y jurisprudencia hasta leyes y reglamentos, utilizando fuentes de alta reputación como los Mementos. Además, la tecnología se apoya en enlaces a las fuentes para ofrecer resultados precisos y fácilmente comprensibles. «Nuestro objetivo es ofrecer soluciones de confianza que aporten valor y beneficios reales a nuestros clientes», afirma Olivier Campenon, CEO de Lefebvre Sarrut.</p>



<p>Incorporada en las gamas premium de sus servicios NEO y QMemento, la IA de Lefebvre aporta respuestas híbridas y certeras. La compañía refuerza así su objetivo de liderar el sector tecnológico legal.</p>



<p>En resumen, esta incorporación marca un antes y un después en la tecnología jurídica, Lefebvre da un gran paso adelante en la integración de IA generativa fiable en el mundo legal.</p>
<p>La entrada <a href="https://bots.blog/lefebvre-incorpora-ia-generativa-busqueda-informacion-juridica/">Lefebvre incorpora IA generativa a la búsqueda de información jurídica</a> se publicó primero en <a href="https://bots.blog">bots.blog_</a>.</p>
]]></content:encoded>
					
					<wfw:commentRss>https://bots.blog/lefebvre-incorpora-ia-generativa-busqueda-informacion-juridica/feed/</wfw:commentRss>
			<slash:comments>0</slash:comments>
		
		
			</item>
		<item>
		<title>Denuncias sobre OpenAI</title>
		<link>https://bots.blog/escritores-demandan-a-openai-por-uso-no-autorizado-de-sus-obras-en-ia/</link>
					<comments>https://bots.blog/escritores-demandan-a-openai-por-uso-no-autorizado-de-sus-obras-en-ia/#respond</comments>
		
		<dc:creator><![CDATA[bots.blog]]></dc:creator>
		<pubDate>Fri, 22 Sep 2023 10:07:58 +0000</pubDate>
				<category><![CDATA[Actualidad Legal]]></category>
		<category><![CDATA[Ciberseguridad]]></category>
		<category><![CDATA[Redes Sociales]]></category>
		<category><![CDATA[#denunciasAI]]></category>
		<category><![CDATA[#derechosAI]]></category>
		<category><![CDATA[#IAGenerativa]]></category>
		<category><![CDATA[#OpenAI]]></category>
		<guid isPermaLink="false">https://bots.blog/?p=5436</guid>

					<description><![CDATA[<p>En un episodio sin precedentes que pone en tela de juicio la intersección de la tecnología y los&#8230;</p>
<p>La entrada <a href="https://bots.blog/escritores-demandan-a-openai-por-uso-no-autorizado-de-sus-obras-en-ia/">Denuncias sobre OpenAI</a> se publicó primero en <a href="https://bots.blog">bots.blog_</a>.</p>
]]></description>
										<content:encoded><![CDATA[
<p class="has-drop-cap is-cnvs-dropcap-bg-light">En un episodio sin precedentes que pone en tela de juicio la intersección de la tecnología y los derechos de autor, 17 escritores prominentes, incluidos George R. R. Martin («Juego de Tronos»), John Grisham («El informe pelícano») y Jonathan Franzen («Libertad»), han demandado a OpenAI. Los escritores acusan al gigante de la inteligencia artificial de utilizar sus obras protegidas por derechos de autor para entrenar a su chatbot generativo, ChatGPT, sin su consentimiento.</p>



<h2 id="la-demanda" class="wp-block-heading"><strong>La demanda</strong></h2>



<p>En la demanda presentada en el Distrito Sur de Nueva York, los autores argumentan que ChatGPT permite a los usuarios generar contenido que esencialmente puede servir como precuelas o secuelas de sus propias obras. Esto se considera especialmente problemático en el caso de Martin, quien aún no ha completado las últimas entregas de su famosa serie «Canción de Hielo y Fuego», base para la serie de televisión «Juego de Tronos». Los autores describen este acto como un «robo sistemático a escala masiva» de sus obras literarias.</p>



<figure class="wp-block-image alignwide size-large is-style-rounded"><img decoding="async" width="1024" height="682" src="https://bots.blog/wp-content/uploads/2023/10/social-media-4698431_1280-1024x682.jpg" alt="Denuncias sobre OpenAI" class="wp-image-5439" srcset="https://bots.blog/wp-content/uploads/2023/10/social-media-4698431_1280-1024x682.jpg 1024w, https://bots.blog/wp-content/uploads/2023/10/social-media-4698431_1280-600x400.jpg 600w, https://bots.blog/wp-content/uploads/2023/10/social-media-4698431_1280-300x200.jpg 300w, https://bots.blog/wp-content/uploads/2023/10/social-media-4698431_1280-768x512.jpg 768w, https://bots.blog/wp-content/uploads/2023/10/social-media-4698431_1280-380x253.jpg 380w, https://bots.blog/wp-content/uploads/2023/10/social-media-4698431_1280-550x367.jpg 550w, https://bots.blog/wp-content/uploads/2023/10/social-media-4698431_1280-800x533.jpg 800w, https://bots.blog/wp-content/uploads/2023/10/social-media-4698431_1280-1160x773.jpg 1160w, https://bots.blog/wp-content/uploads/2023/10/social-media-4698431_1280.jpg 1280w" sizes="(max-width: 1024px) 100vw, 1024px" /><figcaption class="wp-element-caption">Imagen de <a href="https://pixabay.com/es/users/geralt-9301/?utm_source=link-attribution&amp;utm_medium=referral&amp;utm_campaign=image&amp;utm_content=4698431">Gerd Altmann</a> en <a href="https://pixabay.com/es//?utm_source=link-attribution&amp;utm_medium=referral&amp;utm_campaign=image&amp;utm_content=4698431">Pixabay</a></figcaption></figure>



<h2 id="la-posicion-de-openai" class="wp-block-heading"><strong>La posición de OpenAI</strong></h2>



<p>OpenAI, por su parte, ha mantenido una postura defensiva. La empresa sostiene que respeta los derechos de autor y está dispuesta a dialogar con los creadores afectados. Además, han mantenido conversaciones con el Authors Guild, una organización que representa los intereses de los escritores y que ha respaldado la demanda. Mary Rasenberger, la directora ejecutiva del Authors Guild, enfatizó que los autores deben tener el control sobre cómo se utilizan sus obras, especialmente en el contexto de la IA generativa que tiene el potencial de «reemplazar» a los autores humanos en la literatura.</p>



<h2 id="procedencia-de-los-textos" class="wp-block-heading"><strong><strong>Procedencia de los textos</strong></strong></h2>



<p>Una de las inquietudes adicionales planteadas en la demanda es la procedencia de los textos utilizados por la IA, sugiriendo que podrían provenir de «depósitos de libros piratas». Esto añade otra capa de complejidad ética y legal al caso. <br><br>Los demandantes buscan una prohibición explícita contra el uso de sus obras en el entrenamiento de modelos de lenguaje de OpenAI, así como indemnizaciones que ascienden hasta $150,000 por obra infringida. Esta demanda sigue la estela de casos similares presentados contra otras empresas de tecnología, como Meta Platforms, que también se enfrentan a preguntas sobre la utilización ética de contenido protegido por derechos de autor en sus respectivos modelos de IA. <br><br>Consecuencias para el futuro La batalla legal en curso podría tener profundas implicaciones para el futuro de la inteligencia artificial y la creatividad humana, cuestionando la ética de entrenar modelos de lenguaje con obras literarias sin la autorización explícita de los autores. Este caso ejemplifica la creciente tensión entre el avance tecnológico rápido y las consideraciones éticas y legales que lo acompañan.</p>
<p>La entrada <a href="https://bots.blog/escritores-demandan-a-openai-por-uso-no-autorizado-de-sus-obras-en-ia/">Denuncias sobre OpenAI</a> se publicó primero en <a href="https://bots.blog">bots.blog_</a>.</p>
]]></content:encoded>
					
					<wfw:commentRss>https://bots.blog/escritores-demandan-a-openai-por-uso-no-autorizado-de-sus-obras-en-ia/feed/</wfw:commentRss>
			<slash:comments>0</slash:comments>
		
		
			</item>
		<item>
		<title>La Nueva Ley de Servicios Digitales</title>
		<link>https://bots.blog/la-nueva-ley-de-servicios-digitales/</link>
					<comments>https://bots.blog/la-nueva-ley-de-servicios-digitales/#respond</comments>
		
		<dc:creator><![CDATA[bots.blog]]></dc:creator>
		<pubDate>Sun, 03 Sep 2023 08:47:00 +0000</pubDate>
				<category><![CDATA[Actualidad Legal]]></category>
		<category><![CDATA[Ciberseguridad]]></category>
		<category><![CDATA[#LegalServiciosDigitales]]></category>
		<category><![CDATA[#LeyDigital]]></category>
		<guid isPermaLink="false">https://bots.blog/?p=5328</guid>

					<description><![CDATA[<p>Desde el 25 de agosto, la Ley de Servicios Digitales (DSA) se ha convertido en obligatoria para las&#8230;</p>
<p>La entrada <a href="https://bots.blog/la-nueva-ley-de-servicios-digitales/">La Nueva Ley de Servicios Digitales</a> se publicó primero en <a href="https://bots.blog">bots.blog_</a>.</p>
]]></description>
										<content:encoded><![CDATA[
<p class="has-drop-cap is-cnvs-dropcap-bg-light">Desde el 25 de agosto, la Ley de Servicios Digitales (DSA) se ha convertido en obligatoria para las grandes plataformas en línea con más de 45 millones de usuarios activos mensuales en la Unión Europea, incluyendo a gigantes como Google, Facebook, Twitter y TikTok. La DSA establece obligaciones para abordar el contenido ilegal, como el discurso de odio o productos ilícitos, informar a los usuarios sobre cómo denunciar contenido ilegal y prevenir riesgos sistémicos como la desinformación. <br>La DSA busca crear un entorno digital más seguro y justo, abordando problemas como el discurso de odio y la desinformación</p>



<h2 id="beneficios-de-la-ley" class="wp-block-heading">Beneficios de la Ley</h2>



<p>Beneficios para los consumidores incluyen un entorno en línea más seguro, mayor transparencia sobre algoritmos y prácticas comerciales, moderación de contenidos más diligente y protecciones contra la publicidad personalizada dirigida a menores y basada en perfiles. Sin embargo, persisten dudas sobre la implementación y aplicación efectiva de estas obligaciones. La aplicación de la DSA dependerá de un control exhaustivo por parte de la Comisión Europea y las autoridades de cada Estado Miembro. Algunas grandes plataformas han cuestionado sus designaciones como VLOPs/VLOSEs, lo que plantea interrogantes sobre su cumplimiento.</p>



<figure class="wp-block-image alignwide size-full is-style-rounded"><img loading="lazy" decoding="async" width="2560" height="1463" src="https://bots.blog/wp-content/uploads/2023/10/libro-antiguo-sobre-mesa-gafas-lectura-generadas-ia-1-scaled.jpg" alt="La Nueva Ley de Servicios Digitales" class="wp-image-5331" srcset="https://bots.blog/wp-content/uploads/2023/10/libro-antiguo-sobre-mesa-gafas-lectura-generadas-ia-1-scaled.jpg 2560w, https://bots.blog/wp-content/uploads/2023/10/libro-antiguo-sobre-mesa-gafas-lectura-generadas-ia-1-scaled-600x343.jpg 600w, https://bots.blog/wp-content/uploads/2023/10/libro-antiguo-sobre-mesa-gafas-lectura-generadas-ia-1-300x171.jpg 300w" sizes="(max-width: 2560px) 100vw, 2560px" /><figcaption class="wp-element-caption"><a href="https://www.freepik.es/foto-gratis/libro-antiguo-sobre-mesa-gafas-lectura-generadas-ia_40995924.htm#page=3&amp;query=inteligencia%20artificial%20y%20libros%20de%20leyes&amp;position=14&amp;from_view=search&amp;track=ais">Imagen de vecstock</a> en Freepik</figcaption></figure>



<h2 id="sociedad-civil-en-dsa" class="wp-block-heading">Sociedad civil en DSA</h2>



<p>CECU destaca la importancia de incluir la visión de la sociedad civil en la implementación de la DSA. Algunas organizaciones ya han pedido a la Comisión Europea que utilice sus poderes bajo la DSA para garantizar que las grandes plataformas informen sobre cómo mitigar riesgos sistémicos en elecciones europeas 2024.</p>



<h2 id="un-hito" class="wp-block-heading">Un hito</h2>



<p>En resumen, la DSA representa un hito en la regulación de plataformas digitales, pero su efectividad dependerá de su implementación y control, así como de la colaboración de las grandes empresas tecnológicas.</p>
<p>La entrada <a href="https://bots.blog/la-nueva-ley-de-servicios-digitales/">La Nueva Ley de Servicios Digitales</a> se publicó primero en <a href="https://bots.blog">bots.blog_</a>.</p>
]]></content:encoded>
					
					<wfw:commentRss>https://bots.blog/la-nueva-ley-de-servicios-digitales/feed/</wfw:commentRss>
			<slash:comments>0</slash:comments>
		
		
			</item>
		<item>
		<title>Se va a disparar el uso de la IA en el Ambito Jurídico</title>
		<link>https://bots.blog/se-va-a-disparar-el-uso-de-la-ia-en-el-ambito-juridico/</link>
					<comments>https://bots.blog/se-va-a-disparar-el-uso-de-la-ia-en-el-ambito-juridico/#respond</comments>
		
		<dc:creator><![CDATA[bots.blog]]></dc:creator>
		<pubDate>Sat, 05 Aug 2023 08:05:00 +0000</pubDate>
				<category><![CDATA[Actualidad Legal]]></category>
		<category><![CDATA[IA Generativa]]></category>
		<category><![CDATA[#IAEvolulcion]]></category>
		<category><![CDATA[#IAJurídico]]></category>
		<category><![CDATA[#IALegal]]></category>
		<guid isPermaLink="false">https://bots.blog/?p=5311</guid>

					<description><![CDATA[<p>Según el informe «The General Counsel Report 2023», elaborado por FTI Consulting y Relativity Seis de cada diez&#8230;</p>
<p>La entrada <a href="https://bots.blog/se-va-a-disparar-el-uso-de-la-ia-en-el-ambito-juridico/">Se va a disparar el uso de la IA en el Ambito Jurídico</a> se publicó primero en <a href="https://bots.blog">bots.blog_</a>.</p>
]]></description>
										<content:encoded><![CDATA[
<p class="has-drop-cap is-cnvs-dropcap-bg-light">Según el informe «The General Counsel Report 2023», elaborado por FTI Consulting y Relativity Seis de cada diez responsables de servicios jurídicos internos plantea aumentar el uso de la IA. Los responsables de asesorías jurídicas de empresas han experimentado una evolución notable en los últimos cuatro años. La tecnología se ha vuelto esencial para estos directores jurídicos, con un enfoque en la adopción de nuevas tecnologías para abordar los crecientes riesgos y desafíos. Por ejemplo, la inversión en tecnología blockchain para mejorar la gestión de contratos se ha destacado como una prioridad.</p>



<figure class="wp-block-image alignwide size-large is-style-rounded"><img loading="lazy" decoding="async" width="1024" height="681" src="https://bots.blog/wp-content/uploads/2023/10/concepto-collage-control-calidad-estandar-1-1024x681.jpg" alt="uso de la IA en el ámbito jurídico" class="wp-image-5312" srcset="https://bots.blog/wp-content/uploads/2023/10/concepto-collage-control-calidad-estandar-1-1024x681.jpg 1024w, https://bots.blog/wp-content/uploads/2023/10/concepto-collage-control-calidad-estandar-1-600x399.jpg 600w, https://bots.blog/wp-content/uploads/2023/10/concepto-collage-control-calidad-estandar-1-300x200.jpg 300w, https://bots.blog/wp-content/uploads/2023/10/concepto-collage-control-calidad-estandar-1-768x511.jpg 768w, https://bots.blog/wp-content/uploads/2023/10/concepto-collage-control-calidad-estandar-1-380x253.jpg 380w, https://bots.blog/wp-content/uploads/2023/10/concepto-collage-control-calidad-estandar-1-550x366.jpg 550w, https://bots.blog/wp-content/uploads/2023/10/concepto-collage-control-calidad-estandar-1-800x532.jpg 800w, https://bots.blog/wp-content/uploads/2023/10/concepto-collage-control-calidad-estandar-1-1160x772.jpg 1160w, https://bots.blog/wp-content/uploads/2023/10/concepto-collage-control-calidad-estandar-1.jpg 1500w" sizes="(max-width: 1024px) 100vw, 1024px" /><figcaption class="wp-element-caption">Imagen de <a href="https://www.freepik.es/foto-gratis/concepto-collage-control-calidad-estandar_30589262.htm#query=inteligencia%20artificial%20en%20el%20ambito%20juridico&amp;position=8&amp;from_view=search&amp;track=ais">Freepik</a></figcaption></figure>



<h2 id="el-uso-de-la-ia-en-el-entorno-juridico" class="wp-block-heading">El uso de la IA en el entorno jurídico</h2>



<p>En cuanto a la inteligencia artificial (IA), ha habido incertidumbre en ediciones anteriores del estudio, pero este año muestra que el 57% planea aumentar su uso en los próximos años, aunque persisten dudas sobre su adopción y percepción. A pesar de los avances en el trabajo remoto, el 45% de los asesores jurídicos mencionó desafíos asociados con esta modalidad. Para mejorar la conexión con sus equipos, se proponen ofrecer más tiempo libre, aumentar las oportunidades individuales y reestructurar la prestación de asesoramiento jurídico.</p>
<p>La entrada <a href="https://bots.blog/se-va-a-disparar-el-uso-de-la-ia-en-el-ambito-juridico/">Se va a disparar el uso de la IA en el Ambito Jurídico</a> se publicó primero en <a href="https://bots.blog">bots.blog_</a>.</p>
]]></content:encoded>
					
					<wfw:commentRss>https://bots.blog/se-va-a-disparar-el-uso-de-la-ia-en-el-ambito-juridico/feed/</wfw:commentRss>
			<slash:comments>0</slash:comments>
		
		
			</item>
		<item>
		<title>Regulación IA en la UE</title>
		<link>https://bots.blog/regulacion-empresas-tecnologia-ia-ue/</link>
					<comments>https://bots.blog/regulacion-empresas-tecnologia-ia-ue/#respond</comments>
		
		<dc:creator><![CDATA[bots.blog]]></dc:creator>
		<pubDate>Fri, 04 Aug 2023 10:43:00 +0000</pubDate>
				<category><![CDATA[Actualidad Legal]]></category>
		<category><![CDATA[Ciberseguridad]]></category>
		<category><![CDATA[IA Generativa]]></category>
		<category><![CDATA[#EconomíaUE]]></category>
		<category><![CDATA[#NegociacionesUE]]></category>
		<category><![CDATA[#RegulaciónIAUE]]></category>
		<guid isPermaLink="false">https://bots.blog/?p=5410</guid>

					<description><![CDATA[<p>Las nuevas normas de la UE harían a las empresas responsables del uso indebido de la tecnología, pero&#8230;</p>
<p>La entrada <a href="https://bots.blog/regulacion-empresas-tecnologia-ia-ue/">Regulación IA en la UE</a> se publicó primero en <a href="https://bots.blog">bots.blog_</a>.</p>
]]></description>
										<content:encoded><![CDATA[
<p class="has-drop-cap is-cnvs-dropcap-bg-light">Las nuevas normas de la UE harían a las empresas responsables del uso indebido de la tecnología, pero los críticos afirman que los reguladores sólo deberían intervenir de ser necesario.r».</p>



<h2 id="que-cuestiones-relacionadas-con-la-ia-examinan-primero-los-reguladores" class="wp-block-heading"><strong>¿Qué cuestiones relacionadas con la IA examinan primero los reguladores?</strong></h2>



<p>La UE estaba a punto de ultimar una ley sobre la IA, la primera de su clase, que habría controlado, o incluso prohibido, los sistemas de IA supuestamente «de alto riesgo», como los utilizados para tomar decisiones sobre solicitudes de empleo, préstamos o tratamientos médicos. Entonces estalló la fiebre de ChatGPT, el enorme interés público por el &#8216;chatbot&#8217; gratuito de IA generativa de OpenAI. <br><br>Los legisladores no tardaron en ajustar sus planes para incluir los llamados modelos fundacionales, como el gran modelo lingüístico detrás de ChatGPT. <br><br>Las normas de la UE obligarían a las empresas a revelar con qué datos se han entrenado estos modelos y podrían hacerlas responsables del uso indebido de la tecnología, aunque no controlen las aplicaciones finales.</p>



<figure class="wp-block-image alignwide size-large is-style-rounded"><img loading="lazy" decoding="async" width="1024" height="547" src="https://bots.blog/wp-content/uploads/2023/10/technology-5246655_1280-1024x547.jpg" alt="Regulación IA en la UE" class="wp-image-5411" srcset="https://bots.blog/wp-content/uploads/2023/10/technology-5246655_1280-1024x547.jpg 1024w, https://bots.blog/wp-content/uploads/2023/10/technology-5246655_1280-600x321.jpg 600w, https://bots.blog/wp-content/uploads/2023/10/technology-5246655_1280-300x160.jpg 300w, https://bots.blog/wp-content/uploads/2023/10/technology-5246655_1280-768x410.jpg 768w, https://bots.blog/wp-content/uploads/2023/10/technology-5246655_1280-380x203.jpg 380w, https://bots.blog/wp-content/uploads/2023/10/technology-5246655_1280-550x294.jpg 550w, https://bots.blog/wp-content/uploads/2023/10/technology-5246655_1280-800x428.jpg 800w, https://bots.blog/wp-content/uploads/2023/10/technology-5246655_1280-1160x620.jpg 1160w, https://bots.blog/wp-content/uploads/2023/10/technology-5246655_1280.jpg 1280w" sizes="(max-width: 1024px) 100vw, 1024px" /><figcaption class="wp-element-caption">Imagen de <a href="https://pixabay.com/es/users/geralt-9301/?utm_source=link-attribution&amp;utm_medium=referral&amp;utm_campaign=image&amp;utm_content=5246655">Gerd Altmann</a> en <a href="https://pixabay.com/es//?utm_source=link-attribution&amp;utm_medium=referral&amp;utm_campaign=image&amp;utm_content=5246655">Pixabay</a></figcaption></figure>



<h2 id="se-convertira-la-regulacion-europea-de-la-ia-en-un-modelo-para-el-resto-del-mundo" class="wp-block-heading"><strong>¿Se convertirá la regulación europea de la IA en un modelo para el resto del mundo?</strong></h2>



<p>Eso es lo que sucedió con la legislación de protección de datos del bloque, y es un posible desenlace que preocupa a las empresas tecnológicas estadounidenses. Los defensores de la ley de la UE afirman que se aplicará con flexibilidad para reflejar la evolución de las normas y los avances tecnológicos. Pero los detractores sostienen que la experiencia demuestra que Bruselas adopta un enfoque más dogmático y que las normas que se introduzcan ahora podrían limitar la evolución de la tecnología. <br><br>Algunas empresas europeas están de acuerdo. En una carta enviada a la Comisión Europea en junio, 150 grandes empresas europeas advertían de que la ley podría lastrar la economía del bloque al impedir que las empresas utilizaran libremente tecnología de IA importante. <br><br>La versión final de la ley debe negociarse a tres bandas entre el Parlamento, la Comisión y el Consejo de los Estados miembros, lo que significa que aún puede haber cambios.</p>
<p>La entrada <a href="https://bots.blog/regulacion-empresas-tecnologia-ia-ue/">Regulación IA en la UE</a> se publicó primero en <a href="https://bots.blog">bots.blog_</a>.</p>
]]></content:encoded>
					
					<wfw:commentRss>https://bots.blog/regulacion-empresas-tecnologia-ia-ue/feed/</wfw:commentRss>
			<slash:comments>0</slash:comments>
		
		
			</item>
	</channel>
</rss>
