<?xml version="1.0"?>
<feed xmlns="http://www.w3.org/2005/Atom" xml:lang="it">
	<id>https://www.wikiaiact.it/w139/api.php?action=feedcontributions&amp;feedformat=atom&amp;user=InsaidewikiAA</id>
	<title>WikiAiAct - Contributi dell&#039;utente [it]</title>
	<link rel="self" type="application/atom+xml" href="https://www.wikiaiact.it/w139/api.php?action=feedcontributions&amp;feedformat=atom&amp;user=InsaidewikiAA"/>
	<link rel="alternate" type="text/html" href="https://www.wikiaiact.it/wiki/Speciale:Contributi/InsaidewikiAA"/>
	<updated>2026-05-08T17:33:05Z</updated>
	<subtitle>Contributi dell&amp;#039;utente</subtitle>
	<generator>MediaWiki 1.39.10</generator>
	<entry>
		<id>https://www.wikiaiact.it/w139/index.php?title=Approfondimenti&amp;diff=1343</id>
		<title>Approfondimenti</title>
		<link rel="alternate" type="text/html" href="https://www.wikiaiact.it/w139/index.php?title=Approfondimenti&amp;diff=1343"/>
		<updated>2024-09-16T16:07:49Z</updated>

		<summary type="html">&lt;p&gt;InsaidewikiAA: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;&amp;lt;big&amp;gt;&amp;lt;big&amp;gt;&amp;lt;big&amp;gt;Approfondimenti&amp;lt;/big&amp;gt;&amp;lt;/big&amp;gt;&amp;lt;/big&amp;gt;&lt;br /&gt;
&amp;lt;br /&amp;gt;&lt;br /&gt;
Di seguito è possibile trovare degli approfondimenti a cura del team di insAIde/PCG.&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;Contributi di Rocco Panetta&#039;&#039;&#039;&lt;br /&gt;
*&#039;&#039;&#039;&#039;&#039;IA, la prima convenzione mondiale sui diritti è un grande traguardo, ecco perché&#039;&#039;&#039;&#039;&#039; • Agenda Digitale | [https://www.agendadigitale.eu/sicurezza/privacy/ia-la-prima-convenzione-mondiale-sui-diritti-e-un-grande-traguardo-ecco-perche/ Link]&lt;br /&gt;
*&#039;&#039;&#039;&#039;&#039;Legge IA, Panetta: “Italia in recupero, serve più sinergia istituzionale”&#039;&#039;&#039;&#039;&#039; • Agenda Digitale | [https://www.agendadigitale.eu/sicurezza/privacy/legge-ia-panetta-italia-in-recupero-serve-piu-sinergia-istituzionale/ Link]&lt;br /&gt;
*&#039;&#039;&#039;&#039;&#039;L’AI Act e l’ingorgo delle regole&#039;&#039;&#039;&#039;&#039; • La Repubblica | [https://www.italian.tech/blog/digital-europe/2024/07/25/news/lai_act_e_lingorgo_dei_garanti_dei_dati-423413674/ Link]&lt;br /&gt;
*&#039;&#039;&#039;&#039;&#039;Privacy e AI, il Garante alla prova del futuro: i temi al centro della Relazione 2023&#039;&#039;&#039;&#039;&#039; • Agenda Digitale | [https://www.agendadigitale.eu/sicurezza/privacy/privacy-e-ai-il-garante-alla-prova-del-futuro-i-temi-al-centro-della-relazione-2023/ Link]&lt;br /&gt;
*&#039;&#039;&#039;&#039;&#039;Il ruolo dell’Italia nella partita dell’AI e il discorso del papa al G7&#039;&#039;&#039;&#039;&#039; • La Repubblica | [https://www.italian.tech/blog/digital-europe/2024/06/27/news/il_ruolo_dellitalia_nella_partita_dellai_e_il_discorso_del_papa_al_g7-423311820/ Link]&lt;br /&gt;
*&#039;&#039;&#039;&#039;&#039;Governance dell’AI Act: il ruolo delle Autorità in Italia ed Europa&#039;&#039;&#039;&#039;&#039; • Agenda Digitale | [https://www.agendadigitale.eu/cultura-digitale/governance-dellai-act-il-ruolo-delle-autorita-in-italia-ed-europa/ Link]&lt;br /&gt;
*&#039;&#039;&#039;&#039;&#039;The AI Act: A compass for approaching legislation with innovative and disruptive effects&#039;&#039;&#039;&#039;&#039; • Journal of Data Protection &amp;amp; Privacy, Henry Stewart Publications, 2024, vol. 6(4), p. 318-331 | [https://ideas.repec.org/a/aza/jdpp00/y2024v6i4p318-331.html Link]&lt;br /&gt;
*&#039;&#039;&#039;&#039;&#039;AI Act e sostegno all’innovazione: l’importanza delle sandbox normative&#039;&#039;&#039;&#039;&#039; • Agenda Digitale | [https://www.agendadigitale.eu/industry-4-0/ai-act-e-sostegno-allinnovazione-limportanza-delle-sandbox-normative/ Link]&lt;br /&gt;
*&#039;&#039;&#039;&#039;&#039;Prepararsi all’AI Act: strategie di conformità per professionisti e organizzazioni&#039;&#039;&#039;&#039;&#039; • Agenda Digitale | [https://www.agendadigitale.eu/industry-4-0/prepararsi-allai-act-strategie-di-conformita-per-professionisti-e-organizzazioni/ Link]&lt;br /&gt;
*&#039;&#039;&#039;&#039;&#039;AI Act, requisiti e obblighi per i sistemi ad alto rischio: tutto quello che c’è da sapere&#039;&#039;&#039;&#039;&#039; • Agenda Digitale | [https://www.agendadigitale.eu/industry-4-0/ai-act-requisiti-e-obblighi-per-i-sistemi-di-ia-ad-alto-rischio-tutto-quello-che-ce-da-sapere/ Link]&lt;br /&gt;
*&#039;&#039;&#039;&#039;&#039;AI Act, la visione “umano-centrica” sarà davvero un modello per il resto del mondo?&#039;&#039;&#039;&#039;&#039; • Agenda Digitale | [https://www.agendadigitale.eu/sicurezza/ai-act-la-visione-umano-centrica-sara-davvero-un-modello-per-il-resto-del-mondo/ Link]&lt;br /&gt;
*&#039;&#039;&#039;&#039;&#039;AI Act, Panetta: “Critiche sbagliate, era urgente regolare l’Intelligenza Artificiale”&#039;&#039;&#039;&#039;&#039; • Agenda Digitale | [https://www.agendadigitale.eu/cultura-digitale/ai-act-panetta-critiche-sbagliate-era-urgente-regolare-lintelligenza-artificiale/ Link]&lt;br /&gt;
*&#039;&#039;&#039;&#039;&#039;AI Act, disco verde dal Parlamento Ue. Panetta: “Ora aziende e PA si attivino subito”&#039;&#039;&#039;&#039;&#039; • CorCom | [https://www.corrierecomunicazioni.it/digital-economy/ai-act-disco-verde-dal-parlamento-ue-panetta-ora-aziende-e-pa-si-attivino-subito/ Link]&lt;br /&gt;
*&#039;&#039;&#039;&#039;&#039;AI Act: cos’è e come plasma l’intelligenza artificiale in Europa&#039;&#039;&#039;&#039;&#039; • Agenda Digitale | [https://www.agendadigitale.eu/cultura-digitale/ai-act-ci-siamo-ecco-come-plasmera-il-futuro-dellintelligenza-artificiale-in-europa/ Link]&lt;br /&gt;
*&#039;&#039;&#039;&#039;&#039;Panetta, “Sorveglianza di massa con l’AI Act? Ecco le garanzie”&#039;&#039;&#039;&#039;&#039; • Agenda Digitale | [https://www.agendadigitale.eu/sicurezza/privacy/panetta-tensioni-sul-controllo-facciale-nellai-act-le-autorita-sapranno-vigilare/ Link]&lt;br /&gt;
*&#039;&#039;&#039;&#039;&#039;AI Act, Panetta: “Poche cessioni sui diritti, bene”&#039;&#039;&#039;&#039;&#039; • Agenda Digitale | [https://www.agendadigitale.eu/sicurezza/privacy/ai-act-panetta-poche-cessioni-sui-diritti-bene/ Link]&lt;br /&gt;
*&#039;&#039;&#039;&#039;&#039;AI Act in dirittura di arrivo: il segreto sarà il bilanciamento tra esigenze di business e tutela dei diritti fondamentali&#039;&#039;&#039;&#039;&#039; • LegalCommunity | [https://panetta.it/2023/12/19/ai-act-in-dirittura-di-arrivo-il-segreto-sara-il-bilanciamento-tra-esigenze-di-business-e-tutela-dei-diritti-fondamentali/  Link]&lt;br /&gt;
*&#039;&#039;&#039;&#039;&#039;Regole AI, privacy: gli Stati Uniti si svegliano dal sonno&#039;&#039;&#039;&#039;&#039; • Agenda Digitale | [https://www.agendadigitale.eu/sicurezza/privacy/regole-ai-privacy-gli-stati-uniti-si-svegliano-dal-sonno/ Link]&lt;br /&gt;
*&#039;&#039;&#039;&#039;&#039;AI, accelerata per aiutare le imprese&#039;&#039;&#039;&#039;&#039; • Il Sole 24 Ore | [https://panetta.it/2023/10/30/rocco-panetta-sul-sole-24-ore-ai-accelerata-per-aiutare-le-imprese/ Link]&lt;br /&gt;
*&#039;&#039;&#039;&#039;&#039;G7 dei Garanti privacy, intelligenza artificiale e le altre sfide per il futuro&#039;&#039;&#039;&#039;&#039; • Agenda Digitale | [https://www.agendadigitale.eu/sicurezza/privacy/g7-dei-garanti-privacy-intelligenza-artificiale-e-le-altre-sfide-per-il-futuro/ Link]&lt;br /&gt;
*&#039;&#039;&#039;&#039;&#039;AI Act, Panetta: “Ecco la via per una tecnologia al servizio dell’umanità”&#039;&#039;&#039;&#039;&#039; • Agenda Digitale | [https://www.agendadigitale.eu/cultura-digitale/ai-act-panettaue-sulla-strada-giusta-ma-ancora-non-basta/ Link]&lt;br /&gt;
*&#039;&#039;&#039;&#039;&#039;Cooperazione necessaria tra Europa e Stati Uniti sull’AI&#039;&#039;&#039;&#039;&#039; • Il Sole 24 Ore | [https://panetta.it/2023/06/12/cooperazione-necessaria-tra-europa-e-stati-uniti-sullai/ Link]&lt;br /&gt;
*&#039;&#039;&#039;&#039;&#039;Cinque anni di GDPR, ma ora la sfida si chiama regole per l’IA&#039;&#039;&#039;&#039;&#039; • Agenda Digitale |  [https://www.agendadigitale.eu/sicurezza/privacy/cinque-anni-di-gdpr-ma-ora-la-sfida-si-chiama-regole-per-lia/ Link]&lt;br /&gt;
*&#039;&#039;&#039;&#039;&#039;ChatGpt, anche Altman teme rischi. È tempo di un Garante dei dati&#039;&#039;&#039;&#039;&#039; • CorCom | [https://www.corrierecomunicazioni.it/privacy/chatgpt-anche-altman-teme-rischi-e-tempo-di-un-garante-dei-dati/ Link]&lt;br /&gt;
*&#039;&#039;&#039;&#039;&#039;Intelligenza artificiale, sulla data protection linea comune Ue-Usa?&#039;&#039;&#039;&#039;&#039; • CorCom |   [https://www.corrierecomunicazioni.it/podcast/intelligenza-artificiale-sulla-data-protection-linea-comune-ue-usa/  Link]&lt;br /&gt;
*&#039;&#039;&#039;&#039;&#039;ChatGPT bloccato: mossa del Garante Privacy per tutelare minori e dati&#039;&#039;&#039;&#039;&#039; • Il Sole 24 Ore | [https://panetta.it/2023/03/31/chatgpt-bloccato-mossa-del-garante-privacy-per-tutelare-minori-e-dati/ Link]&lt;br /&gt;
*&#039;&#039;&#039;&#039;&#039;Direttiva eu su responsabilità per danni da intelligenza artificiale: passo necessario per l’Europa&#039;&#039;&#039;&#039;&#039; • Agenda Digitale | [https://www.agendadigitale.eu/mercati-digitali/direttiva-eu-su-responsabilita-per-danni-da-intelligenza-artificiale-passo-necessario-per-leuropa/ Link]&lt;br /&gt;
*&#039;&#039;&#039;&#039;&#039;Intelligenza artificiale, la Ue cala il “poker”: tre chiavi di lettura per il nuovo Regolamento&#039;&#039;&#039;&#039;&#039; • Agenda Digitale | [https://www.agendadigitale.eu/cultura-digitale/intelligenza-artificiale-la-ue-cala-il-poker-tre-chiavi-di-lettura-per-il-nuovo-regolamento/ Link]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;Contributi di Vincenzo Tiani&#039;&#039;&#039;&lt;br /&gt;
*&#039;&#039;&#039;&#039;&#039;Intelligenza artificiale, quali rischi corriamo con le nuove regole europee&#039;&#039;&#039;&#039;&#039; • Domani | [https://www.editorialedomani.it/tecnologia/intelligenza-artificiale-quali-rischi-corriamo-con-le-nuove-regole-europee-krgrjbzr Link]&lt;br /&gt;
*&#039;&#039;&#039;&#039;&#039;Come evitare la pesca a strascico dei dati per allenare l’intelligenza artificiale&#039;&#039;&#039;&#039;&#039; • Wired | [https://www.wired.it/article/web-scraping-intelligenza-artificiale-garante-privacy/ Link]&lt;br /&gt;
*&#039;&#039;&#039;&#039;&#039;Le Big Tech stanno cambiando approccio: niente più uso automatico dei nostri dati per il training dell&#039;AI&#039;&#039;&#039;&#039;&#039; • Wired | [https://www.wired.it/article/big-tech-uso-automatico-dati-training-ai/ Link]&lt;br /&gt;
*&#039;&#039;&#039;&#039;&#039;Le aziende devono valutare i rischi dell&#039;intelligenza artificiale&#039;&#039;&#039;&#039;&#039; • Wired | [https://www.wired.it/article/intelligenza-artificiale-rischi-ai-act-unione-europea/ Link]&lt;br /&gt;
*&#039;&#039;&#039;&#039;&#039;ChatGPT scatena lo scontro tra Microsoft e Google&#039;&#039;&#039;&#039;&#039; • Wired | [https://www.wired.it/article/chatgpt-bing-microsoft-google-ricerche-online-pubblicita/ Link]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;Contributi di Gabriele Franco&#039;&#039;&#039;&lt;br /&gt;
*&#039;&#039;&#039;&#039;&#039;IA e web scraping: le indicazioni del Garante della Privacy per difendersi&#039;&#039;&#039;&#039;&#039; • La Repubblica | [https://www.repubblica.it/tecnologia/2024/06/04/news/ia_e_web_scraping_le_indicazioni_del_garante_privacy_per_difendersi-423165957/ Link]&lt;br /&gt;
*&#039;&#039;&#039;&#039;&#039;Via libera del Parlamento europeo all’AI Act&#039;&#039;&#039;&#039;&#039; • Italian Tech | [https://www.italian.tech/2024/03/13/news/via_libera_del_parlamento_europeo_allai_act-422302635/ Link]&lt;br /&gt;
*&#039;&#039;&#039;&#039;&#039;Cosa sono le regulatory sandbox e che c’entrano con l’intelligenza artificiale&#039;&#039;&#039;&#039;&#039; • La Repubblica | [https://www.repubblica.it/tecnologia/2023/11/27/news/che_cosa_sono_le_regulatory_sandbox_e_cosa_centrano_con_lintelligenza_artificiale-421315721/ Link]&lt;br /&gt;
*&#039;&#039;&#039;&#039;&#039;5 cose da sapere sulla nuova legge europea sull’intelligenza artificiale&#039;&#039;&#039;&#039;&#039; • La Repubblica | [https://www.repubblica.it/tecnologia/2023/08/15/news/5_cose_da_sapere_sulla_nuova_legge_europea_sullintelligenza_artificiale-410651982/?ref=RHVB-BG-I302503236-P8-S2-T1/ Link]&lt;br /&gt;
*&#039;&#039;&#039;&#039;&#039;Tra norme rigide e libertà assoluta, le leggi sull’intelligenza artificiale nel mondo&#039;&#039;&#039;&#039;&#039; • La Repubblica | [https://www.repubblica.it/tecnologia/2023/07/11/news/intelligenza_artificiale_regole_leggi_mondo-407297812/ Link]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;*ARCHIVIO IN CONTINUO AGGIORNAMENTO*&#039;&#039;&#039;&lt;/div&gt;</summary>
		<author><name>InsaidewikiAA</name></author>
	</entry>
	<entry>
		<id>https://www.wikiaiact.it/w139/index.php?title=Approfondimenti&amp;diff=1342</id>
		<title>Approfondimenti</title>
		<link rel="alternate" type="text/html" href="https://www.wikiaiact.it/w139/index.php?title=Approfondimenti&amp;diff=1342"/>
		<updated>2024-09-16T16:05:57Z</updated>

		<summary type="html">&lt;p&gt;InsaidewikiAA: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;&amp;lt;big&amp;gt;&amp;lt;big&amp;gt;&amp;lt;big&amp;gt;Approfondimenti&amp;lt;/big&amp;gt;&amp;lt;/big&amp;gt;&amp;lt;/big&amp;gt;&lt;br /&gt;
&amp;lt;br /&amp;gt;&lt;br /&gt;
Di seguito è possibile trovare degli approfondimenti a cura del team di insAIde/PCG.&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;Contributi di Rocco Panetta&#039;&#039;&#039;&lt;br /&gt;
*&#039;&#039;&#039;&#039;&#039;IA, la prima convenzione mondiale sui diritti è un grande traguardo, ecco perché&#039;&#039;&#039;&#039;&#039; • Agenda Digitale | [https://www.agendadigitale.eu/sicurezza/privacy/ia-la-prima-convenzione-mondiale-sui-diritti-e-un-grande-traguardo-ecco-perche/ Link]&lt;br /&gt;
*&#039;&#039;&#039;&#039;&#039;Legge IA, Panetta: “Italia in recupero, serve più sinergia istituzionale”&#039;&#039;&#039;&#039;&#039; • Agenda Digitale | [https://www.agendadigitale.eu/sicurezza/privacy/legge-ia-panetta-italia-in-recupero-serve-piu-sinergia-istituzionale/ Link]&lt;br /&gt;
*&#039;&#039;&#039;&#039;&#039;L’AI Act e l’ingorgo delle regole&#039;&#039;&#039;&#039;&#039; • La Repubblica | [https://www.italian.tech/blog/digital-europe/2024/07/25/news/lai_act_e_lingorgo_dei_garanti_dei_dati-423413674/ Link]&lt;br /&gt;
*&#039;&#039;&#039;&#039;&#039;Privacy e AI, il Garante alla prova del futuro: i temi al centro della Relazione 2023&#039;&#039;&#039;&#039;&#039; • Agenda Digitale | [https://www.agendadigitale.eu/sicurezza/privacy/privacy-e-ai-il-garante-alla-prova-del-futuro-i-temi-al-centro-della-relazione-2023/ Link]&lt;br /&gt;
*&#039;&#039;&#039;&#039;&#039;Il ruolo dell’Italia nella partita dell’AI e il discorso del papa al G7&#039;&#039;&#039;&#039;&#039; • La Repubblica | [https://www.italian.tech/blog/digital-europe/2024/06/27/news/il_ruolo_dellitalia_nella_partita_dellai_e_il_discorso_del_papa_al_g7-423311820/ Link]&lt;br /&gt;
*&#039;&#039;&#039;&#039;&#039;Governance dell’AI Act: il ruolo delle Autorità in Italia ed Europa&#039;&#039;&#039;&#039;&#039; • Agenda Digitale | [https://www.agendadigitale.eu/cultura-digitale/governance-dellai-act-il-ruolo-delle-autorita-in-italia-ed-europa/ Link]&lt;br /&gt;
*&#039;&#039;&#039;&#039;&#039;The AI Act: A compass for approaching legislation with innovative and disruptive effects&#039;&#039;&#039;&#039;&#039; • Journal of Data Protection &amp;amp; Privacy, Henry Stewart Publications, 2024, vol. 6(4), p. 318-331 | [https://ideas.repec.org/a/aza/jdpp00/y2024v6i4p318-331.html Link]&lt;br /&gt;
*&#039;&#039;&#039;&#039;&#039;AI Act e sostegno all’innovazione: l’importanza delle sandbox normative&#039;&#039;&#039;&#039;&#039; • Agenda Digitale | [https://www.agendadigitale.eu/industry-4-0/ai-act-e-sostegno-allinnovazione-limportanza-delle-sandbox-normative/ Link]&lt;br /&gt;
*&#039;&#039;&#039;&#039;&#039;Prepararsi all’AI Act: strategie di conformità per professionisti e organizzazioni&#039;&#039;&#039;&#039;&#039; • Agenda Digitale | [https://www.agendadigitale.eu/industry-4-0/prepararsi-allai-act-strategie-di-conformita-per-professionisti-e-organizzazioni/ Link]&lt;br /&gt;
*&#039;&#039;&#039;&#039;&#039;AI Act, requisiti e obblighi per i sistemi ad alto rischio: tutto quello che c’è da sapere&#039;&#039;&#039;&#039;&#039; • Agenda Digitale | [https://www.agendadigitale.eu/industry-4-0/ai-act-requisiti-e-obblighi-per-i-sistemi-di-ia-ad-alto-rischio-tutto-quello-che-ce-da-sapere/ Link]&lt;br /&gt;
*&#039;&#039;&#039;&#039;&#039;AI Act, la visione “umano-centrica” sarà davvero un modello per il resto del mondo?&#039;&#039;&#039;&#039;&#039; • Agenda Digitale | [https://www.agendadigitale.eu/sicurezza/ai-act-la-visione-umano-centrica-sara-davvero-un-modello-per-il-resto-del-mondo/ Link]&lt;br /&gt;
*&#039;&#039;&#039;&#039;&#039;AI Act, Panetta: “Critiche sbagliate, era urgente regolare l’Intelligenza Artificiale”&#039;&#039;&#039;&#039;&#039; • Agenda Digitale | [https://www.agendadigitale.eu/cultura-digitale/ai-act-panetta-critiche-sbagliate-era-urgente-regolare-lintelligenza-artificiale/ Link]&lt;br /&gt;
*&#039;&#039;&#039;&#039;&#039;AI Act, disco verde dal Parlamento Ue. Panetta: “Ora aziende e PA si attivino subito”&#039;&#039;&#039;&#039;&#039; • CorCom | [https://www.corrierecomunicazioni.it/digital-economy/ai-act-disco-verde-dal-parlamento-ue-panetta-ora-aziende-e-pa-si-attivino-subito/ Link]&lt;br /&gt;
*&#039;&#039;&#039;&#039;&#039;AI Act: cos’è e come plasma l’intelligenza artificiale in Europa&#039;&#039;&#039;&#039;&#039; • Agenda Digitale | [https://www.agendadigitale.eu/cultura-digitale/ai-act-ci-siamo-ecco-come-plasmera-il-futuro-dellintelligenza-artificiale-in-europa/ Link]&lt;br /&gt;
*&#039;&#039;&#039;&#039;&#039;Panetta, “Sorveglianza di massa con l’AI Act? Ecco le garanzie”&#039;&#039;&#039;&#039;&#039; • Agenda Digitale | [https://www.agendadigitale.eu/sicurezza/privacy/panetta-tensioni-sul-controllo-facciale-nellai-act-le-autorita-sapranno-vigilare/ Link]&lt;br /&gt;
*&#039;&#039;&#039;&#039;&#039;AI Act, Panetta: “Poche cessioni sui diritti, bene”&#039;&#039;&#039;&#039;&#039; • Agenda Digitale | [https://www.agendadigitale.eu/sicurezza/privacy/ai-act-panetta-poche-cessioni-sui-diritti-bene/ Link]&lt;br /&gt;
*&#039;&#039;&#039;&#039;&#039;AI Act in dirittura di arrivo: il segreto sarà il bilanciamento tra esigenze di business e tutela dei diritti fondamentali&#039;&#039;&#039;&#039;&#039; • LegalCommunity | [https://panetta.it/2023/12/19/ai-act-in-dirittura-di-arrivo-il-segreto-sara-il-bilanciamento-tra-esigenze-di-business-e-tutela-dei-diritti-fondamentali/  Link]&lt;br /&gt;
*&#039;&#039;&#039;&#039;&#039;Regole AI, privacy: gli Stati Uniti si svegliano dal sonno&#039;&#039;&#039;&#039;&#039; • Agenda Digitale | [https://www.agendadigitale.eu/sicurezza/privacy/regole-ai-privacy-gli-stati-uniti-si-svegliano-dal-sonno/ Link]&lt;br /&gt;
*&#039;&#039;&#039;&#039;&#039;AI, accelerata per aiutare le imprese&#039;&#039;&#039;&#039;&#039; • Il Sole 24 Ore | [https://panetta.it/2023/10/30/rocco-panetta-sul-sole-24-ore-ai-accelerata-per-aiutare-le-imprese/ Link]&lt;br /&gt;
*&#039;&#039;&#039;&#039;&#039;G7 dei Garanti privacy, intelligenza artificiale e le altre sfide per il futuro&#039;&#039;&#039;&#039;&#039; • Agenda Digitale | [https://www.agendadigitale.eu/sicurezza/privacy/g7-dei-garanti-privacy-intelligenza-artificiale-e-le-altre-sfide-per-il-futuro/ Link]&lt;br /&gt;
*&#039;&#039;&#039;&#039;&#039;AI Act, Panetta: “Ecco la via per una tecnologia al servizio dell’umanità”&#039;&#039;&#039;&#039;&#039; • Agenda Digitale | [https://www.agendadigitale.eu/cultura-digitale/ai-act-panettaue-sulla-strada-giusta-ma-ancora-non-basta/ Link]&lt;br /&gt;
*&#039;&#039;&#039;&#039;&#039;Cooperazione necessaria tra Europa e Stati Uniti sull’AI&#039;&#039;&#039;&#039;&#039; • Il Sole 24 Ore | [https://panetta.it/2023/06/12/cooperazione-necessaria-tra-europa-e-stati-uniti-sullai/ Link]&lt;br /&gt;
*&#039;&#039;&#039;&#039;&#039;Cinque anni di GDPR, ma ora la sfida si chiama regole per l’IA&#039;&#039;&#039;&#039;&#039; • Agenda Digitale |  [https://www.agendadigitale.eu/sicurezza/privacy/cinque-anni-di-gdpr-ma-ora-la-sfida-si-chiama-regole-per-lia/ Link]&lt;br /&gt;
*&#039;&#039;&#039;&#039;&#039;ChatGpt, anche Altman teme rischi. È tempo di un Garante dei dati&#039;&#039;&#039;&#039;&#039; • CorCom | [https://www.corrierecomunicazioni.it/privacy/chatgpt-anche-altman-teme-rischi-e-tempo-di-un-garante-dei-dati/ Link]&lt;br /&gt;
*&#039;&#039;&#039;&#039;&#039;Intelligenza artificiale, sulla data protection linea comune Ue-Usa?&#039;&#039;&#039;&#039;&#039; • CorCom |   [https://www.corrierecomunicazioni.it/podcast/intelligenza-artificiale-sulla-data-protection-linea-comune-ue-usa/  Link]&lt;br /&gt;
*&#039;&#039;&#039;&#039;&#039;ChatGPT bloccato: mossa del Garante Privacy per tutelare minori e dati&#039;&#039;&#039;&#039;&#039; • Il Sole 24 Ore | [https://panetta.it/2023/03/31/chatgpt-bloccato-mossa-del-garante-privacy-per-tutelare-minori-e-dati/ Link]&lt;br /&gt;
*&#039;&#039;&#039;&#039;&#039;Direttiva eu su responsabilità per danni da intelligenza artificiale: passo necessario per l’Europa&#039;&#039;&#039;&#039;&#039; • Agenda Digitale | [https://www.agendadigitale.eu/mercati-digitali/direttiva-eu-su-responsabilita-per-danni-da-intelligenza-artificiale-passo-necessario-per-leuropa/ Link]&lt;br /&gt;
*&#039;&#039;&#039;&#039;&#039;Intelligenza artificiale, la Ue cala il “poker”: tre chiavi di lettura per il nuovo Regolamento&#039;&#039;&#039;&#039;&#039; • Agenda Digitale | [https://www.agendadigitale.eu/cultura-digitale/intelligenza-artificiale-la-ue-cala-il-poker-tre-chiavi-di-lettura-per-il-nuovo-regolamento/ Link]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;Contributi di Vincenzo Tiani&#039;&#039;&#039;&lt;br /&gt;
*&#039;&#039;&#039;&#039;&#039;Intelligenza artificiale, quali rischi corriamo con le nuove regole europee&#039;&#039;&#039;&#039;&#039; • Domani | [https://www.editorialedomani.it/tecnologia/intelligenza-artificiale-quali-rischi-corriamo-con-le-nuove-regole-europee-krgrjbzr Link]&lt;br /&gt;
*&#039;&#039;&#039;&#039;&#039;Come evitare la pesca a strascico dei dati per allenare l’intelligenza artificiale&#039;&#039;&#039;&#039;&#039; • Wired | [https://www.wired.it/article/web-scraping-intelligenza-artificiale-garante-privacy/ Link]&lt;br /&gt;
*&#039;&#039;&#039;&#039;&#039;Le Big Tech stanno cambiando approccio: niente più uso automatico dei nostri dati per il training dell&#039;AI&#039;&#039;&#039;&#039;&#039; • Wired | [https://www.wired.it/article/big-tech-uso-automatico-dati-training-ai/ Link]&lt;br /&gt;
*&#039;&#039;&#039;&#039;&#039;Le aziende devono valutare i rischi dell&#039;intelligenza artificiale&#039;&#039;&#039;&#039;&#039; • Wired | [https://www.wired.it/article/intelligenza-artificiale-rischi-ai-act-unione-europea/ Link]&lt;br /&gt;
*&#039;&#039;&#039;&#039;&#039;ChatGPT scatena lo scontro tra Microsoft e Google&#039;&#039;&#039;&#039;&#039; • Wired | [https://www.wired.it/article/chatgpt-bing-microsoft-google-ricerche-online-pubblicita/ Link]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;Contributi di Gabriele Franco&#039;&#039;&#039;&lt;br /&gt;
*&#039;&#039;&#039;&#039;&#039;IA e web scraping: le indicazioni del Garante della Privacy per difendersi&#039;&#039;&#039;&#039;&#039; • La Repubblica | [https://www.repubblica.it/tecnologia/2024/06/04/news/ia_e_web_scraping_le_indicazioni_del_garante_privacy_per_difendersi-423165957/ Link]&lt;br /&gt;
*&#039;&#039;&#039;&#039;&#039;Via libera del Parlamento europeo all’AI Act&#039;&#039;&#039;&#039;&#039; • Italian Tech | [https://www.italian.tech/2024/03/13/news/via_libera_del_parlamento_europeo_allai_act-422302635/ Link]&lt;br /&gt;
*&#039;&#039;&#039;&#039;&#039;Cosa sono le regulatory sandbox e che c’entrano con l’intelligenza artificiale&#039;&#039;&#039;&#039;&#039; • La Repubblica | [https://www.repubblica.it/tecnologia/2023/11/27/news/che_cosa_sono_le_regulatory_sandbox_e_cosa_centrano_con_lintelligenza_artificiale-421315721/ Link]&lt;br /&gt;
*&#039;&#039;&#039;&#039;&#039;5 cose da sapere sulla nuova legge europea sull’intelligenza artificiale&#039;&#039;&#039;&#039;&#039; • La Repubblica | [https://www.repubblica.it/tecnologia/2023/08/15/news/5_cose_da_sapere_sulla_nuova_legge_europea_sullintelligenza_artificiale-410651982/?ref=RHVB-BG-I302503236-P8-S2-T1/ Link]&lt;br /&gt;
*&#039;&#039;&#039;&#039;&#039;Tra norme rigide e libertà assoluta, le leggi sull’intelligenza artificiale nel mondo&#039;&#039;&#039;&#039;&#039; • La Repubblica | [https://www.repubblica.it/tecnologia/2023/07/11/news/intelligenza_artificiale_regole_leggi_mondo-407297812/ Link]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;*ARCHIVIO IN AGGIORNAMENTO*&#039;&#039;&#039;&lt;/div&gt;</summary>
		<author><name>InsaidewikiAA</name></author>
	</entry>
	<entry>
		<id>https://www.wikiaiact.it/w139/index.php?title=Approfondimenti&amp;diff=1341</id>
		<title>Approfondimenti</title>
		<link rel="alternate" type="text/html" href="https://www.wikiaiact.it/w139/index.php?title=Approfondimenti&amp;diff=1341"/>
		<updated>2024-09-16T16:04:45Z</updated>

		<summary type="html">&lt;p&gt;InsaidewikiAA: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;&amp;lt;big&amp;gt;&amp;lt;big&amp;gt;&amp;lt;big&amp;gt;Approfondimenti&amp;lt;/big&amp;gt;&amp;lt;/big&amp;gt;&amp;lt;/big&amp;gt;&lt;br /&gt;
&amp;lt;br /&amp;gt;&lt;br /&gt;
Di seguito è possibile trovare degli approfondimenti a cura del team di insAIde/PCG.&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;Contributi di Rocco Panetta&#039;&#039;&#039;&lt;br /&gt;
*&#039;&#039;&#039;&#039;&#039;IA, la prima convenzione mondiale sui diritti è un grande traguardo, ecco perché&#039;&#039;&#039;&#039;&#039; • Agenda Digitale | [https://www.agendadigitale.eu/sicurezza/privacy/ia-la-prima-convenzione-mondiale-sui-diritti-e-un-grande-traguardo-ecco-perche/ Link]&lt;br /&gt;
*&#039;&#039;&#039;&#039;&#039;Legge IA, Panetta: “Italia in recupero, serve più sinergia istituzionale”&#039;&#039;&#039;&#039;&#039; • Agenda Digitale | [https://www.agendadigitale.eu/sicurezza/privacy/legge-ia-panetta-italia-in-recupero-serve-piu-sinergia-istituzionale/ Link]&lt;br /&gt;
*&#039;&#039;&#039;&#039;&#039;L’AI Act e l’ingorgo delle regole&#039;&#039;&#039;&#039;&#039; • La Repubblica | [https://www.italian.tech/blog/digital-europe/2024/07/25/news/lai_act_e_lingorgo_dei_garanti_dei_dati-423413674/ Link]&lt;br /&gt;
*&#039;&#039;&#039;&#039;&#039;Privacy e AI, il Garante alla prova del futuro: i temi al centro della Relazione 2023&#039;&#039;&#039;&#039;&#039; • Agenda Digitale | [https://www.agendadigitale.eu/sicurezza/privacy/privacy-e-ai-il-garante-alla-prova-del-futuro-i-temi-al-centro-della-relazione-2023/ Link]&lt;br /&gt;
*&#039;&#039;&#039;&#039;&#039;Il ruolo dell’Italia nella partita dell’AI e il discorso del papa al G7&#039;&#039;&#039;&#039;&#039; • La Repubblica | [https://www.italian.tech/blog/digital-europe/2024/06/27/news/il_ruolo_dellitalia_nella_partita_dellai_e_il_discorso_del_papa_al_g7-423311820/ Link]&lt;br /&gt;
*&#039;&#039;&#039;&#039;&#039;Governance dell’AI Act: il ruolo delle Autorità in Italia ed Europa&#039;&#039;&#039;&#039;&#039; • Agenda Digitale | [https://www.agendadigitale.eu/cultura-digitale/governance-dellai-act-il-ruolo-delle-autorita-in-italia-ed-europa/ Link]&lt;br /&gt;
*&#039;&#039;&#039;&#039;&#039;The AI Act: A compass for approaching legislation with innovative and disruptive effects&#039;&#039;&#039;&#039;&#039; • Journal of Data Protection &amp;amp; Privacy, Henry Stewart Publications, 2024, vol. 6(4), p. 318-331 | [https://ideas.repec.org/a/aza/jdpp00/y2024v6i4p318-331.html Link]&lt;br /&gt;
*&#039;&#039;&#039;&#039;&#039;AI Act e sostegno all’innovazione: l’importanza delle sandbox normative&#039;&#039;&#039;&#039;&#039; • Agenda Digitale | [https://www.agendadigitale.eu/industry-4-0/ai-act-e-sostegno-allinnovazione-limportanza-delle-sandbox-normative/ Link]&lt;br /&gt;
*&#039;&#039;&#039;&#039;&#039;Prepararsi all’AI Act: strategie di conformità per professionisti e organizzazioni&#039;&#039;&#039;&#039;&#039; • Agenda Digitale | [https://www.agendadigitale.eu/industry-4-0/prepararsi-allai-act-strategie-di-conformita-per-professionisti-e-organizzazioni/ Link]&lt;br /&gt;
*&#039;&#039;&#039;&#039;&#039;AI Act, requisiti e obblighi per i sistemi ad alto rischio: tutto quello che c’è da sapere&#039;&#039;&#039;&#039;&#039; • Agenda Digitale | [https://www.agendadigitale.eu/industry-4-0/ai-act-requisiti-e-obblighi-per-i-sistemi-di-ia-ad-alto-rischio-tutto-quello-che-ce-da-sapere/ Link]&lt;br /&gt;
*&#039;&#039;&#039;&#039;&#039;AI Act, la visione “umano-centrica” sarà davvero un modello per il resto del mondo?&#039;&#039;&#039;&#039;&#039; • Agenda Digitale | [https://www.agendadigitale.eu/sicurezza/ai-act-la-visione-umano-centrica-sara-davvero-un-modello-per-il-resto-del-mondo/ Link]&lt;br /&gt;
*&#039;&#039;&#039;&#039;&#039;AI Act, Panetta: “Critiche sbagliate, era urgente regolare l’Intelligenza Artificiale”&#039;&#039;&#039;&#039;&#039; • Agenda Digitale | [https://www.agendadigitale.eu/cultura-digitale/ai-act-panetta-critiche-sbagliate-era-urgente-regolare-lintelligenza-artificiale/ Link]&lt;br /&gt;
*&#039;&#039;&#039;&#039;&#039;AI Act, disco verde dal Parlamento Ue. Panetta: “Ora aziende e PA si attivino subito”&#039;&#039;&#039;&#039;&#039; • CorCom | [https://www.corrierecomunicazioni.it/digital-economy/ai-act-disco-verde-dal-parlamento-ue-panetta-ora-aziende-e-pa-si-attivino-subito/ Link]&lt;br /&gt;
*&#039;&#039;&#039;&#039;&#039;AI Act: cos’è e come plasma l’intelligenza artificiale in Europa&#039;&#039;&#039;&#039;&#039; • Agenda Digitale | [https://www.agendadigitale.eu/cultura-digitale/ai-act-ci-siamo-ecco-come-plasmera-il-futuro-dellintelligenza-artificiale-in-europa/ Link]&lt;br /&gt;
*&#039;&#039;&#039;&#039;&#039;Panetta, “Sorveglianza di massa con l’AI Act? Ecco le garanzie”&#039;&#039;&#039;&#039;&#039; • Agenda Digitale | [https://www.agendadigitale.eu/sicurezza/privacy/panetta-tensioni-sul-controllo-facciale-nellai-act-le-autorita-sapranno-vigilare/ Link]&lt;br /&gt;
*&#039;&#039;&#039;&#039;&#039;AI Act, Panetta: “Poche cessioni sui diritti, bene”&#039;&#039;&#039;&#039;&#039; • Agenda Digitale | [https://www.agendadigitale.eu/sicurezza/privacy/ai-act-panetta-poche-cessioni-sui-diritti-bene/ Link]&lt;br /&gt;
*&#039;&#039;&#039;&#039;&#039;AI Act in dirittura di arrivo: il segreto sarà il bilanciamento tra esigenze di business e tutela dei diritti fondamentali&#039;&#039;&#039;&#039;&#039; • LegalCommunity | [https://panetta.it/2023/12/19/ai-act-in-dirittura-di-arrivo-il-segreto-sara-il-bilanciamento-tra-esigenze-di-business-e-tutela-dei-diritti-fondamentali/  Link]&lt;br /&gt;
*&#039;&#039;&#039;&#039;&#039;Regole AI, privacy: gli Stati Uniti si svegliano dal sonno&#039;&#039;&#039;&#039;&#039; • Agenda Digitale | [https://www.agendadigitale.eu/sicurezza/privacy/regole-ai-privacy-gli-stati-uniti-si-svegliano-dal-sonno/ Link]&lt;br /&gt;
*&#039;&#039;&#039;&#039;&#039;AI, accelerata per aiutare le imprese&#039;&#039;&#039;&#039;&#039; • Il Sole 24 Ore | [https://panetta.it/2023/10/30/rocco-panetta-sul-sole-24-ore-ai-accelerata-per-aiutare-le-imprese/ Link]&lt;br /&gt;
*&#039;&#039;&#039;&#039;&#039;G7 dei Garanti privacy, intelligenza artificiale e le altre sfide per il futuro&#039;&#039;&#039;&#039;&#039; • Agenda Digitale | [https://www.agendadigitale.eu/sicurezza/privacy/g7-dei-garanti-privacy-intelligenza-artificiale-e-le-altre-sfide-per-il-futuro/ Link]&lt;br /&gt;
*&#039;&#039;&#039;&#039;&#039;AI Act, Panetta: “Ecco la via per una tecnologia al servizio dell’umanità”&#039;&#039;&#039;&#039;&#039; • Agenda Digitale | [https://www.agendadigitale.eu/cultura-digitale/ai-act-panettaue-sulla-strada-giusta-ma-ancora-non-basta/ Link]&lt;br /&gt;
*&#039;&#039;&#039;&#039;&#039;Cooperazione necessaria tra Europa e Stati Uniti sull’AI&#039;&#039;&#039;&#039;&#039; • Il Sole 24 Ore | [https://panetta.it/2023/06/12/cooperazione-necessaria-tra-europa-e-stati-uniti-sullai/ Link]&lt;br /&gt;
*&#039;&#039;&#039;&#039;&#039;Cinque anni di GDPR, ma ora la sfida si chiama regole per l’IA&#039;&#039;&#039;&#039;&#039; • Agenda Digitale |  [https://www.agendadigitale.eu/sicurezza/privacy/cinque-anni-di-gdpr-ma-ora-la-sfida-si-chiama-regole-per-lia/ Link]&lt;br /&gt;
*&#039;&#039;&#039;&#039;&#039;ChatGpt, anche Altman teme rischi. È tempo di un Garante dei dati&#039;&#039;&#039;&#039;&#039; • CorCom | [https://www.corrierecomunicazioni.it/privacy/chatgpt-anche-altman-teme-rischi-e-tempo-di-un-garante-dei-dati/ Link]&lt;br /&gt;
*&#039;&#039;&#039;&#039;&#039;Intelligenza artificiale, sulla data protection linea comune Ue-Usa?&#039;&#039;&#039;&#039;&#039; • CorCom |[https://www.corrierecomunicazioni.it/podcast/intelligenza-artificiale-sulla-data-protection-linea-comune-ue-usa/  Link]&lt;br /&gt;
*&#039;&#039;&#039;&#039;&#039;ChatGPT bloccato: mossa del Garante Privacy per tutelare minori e dati&#039;&#039;&#039;&#039;&#039; • Il Sole 24 Ore | [https://panetta.it/2023/03/31/chatgpt-bloccato-mossa-del-garante-privacy-per-tutelare-minori-e-dati/ Link]&lt;br /&gt;
*&#039;&#039;&#039;&#039;&#039;Direttiva eu su responsabilità per danni da intelligenza artificiale: passo necessario per l’Europa&#039;&#039;&#039;&#039;&#039; • Agenda Digitale | [https://www.agendadigitale.eu/mercati-digitali/direttiva-eu-su-responsabilita-per-danni-da-intelligenza-artificiale-passo-necessario-per-leuropa/ Link]&lt;br /&gt;
*&#039;&#039;&#039;&#039;&#039;Intelligenza artificiale, la Ue cala il “poker”: tre chiavi di lettura per il nuovo Regolamento&#039;&#039;&#039;&#039;&#039; • Agenda Digitale | [https://www.agendadigitale.eu/cultura-digitale/intelligenza-artificiale-la-ue-cala-il-poker-tre-chiavi-di-lettura-per-il-nuovo-regolamento/ Link]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;Contributi di Vincenzo Tiani&#039;&#039;&#039;&lt;br /&gt;
*&#039;&#039;&#039;&#039;&#039;Intelligenza artificiale, quali rischi corriamo con le nuove regole europee&#039;&#039;&#039;&#039;&#039; • Domani | [https://www.editorialedomani.it/tecnologia/intelligenza-artificiale-quali-rischi-corriamo-con-le-nuove-regole-europee-krgrjbzr Link]&lt;br /&gt;
*&#039;&#039;&#039;&#039;&#039;Come evitare la pesca a strascico dei dati per allenare l’intelligenza artificiale&#039;&#039;&#039;&#039;&#039; • Wired | [https://www.wired.it/article/web-scraping-intelligenza-artificiale-garante-privacy/ Link]&lt;br /&gt;
*&#039;&#039;&#039;&#039;&#039;Le Big Tech stanno cambiando approccio: niente più uso automatico dei nostri dati per il training dell&#039;AI&#039;&#039;&#039;&#039;&#039; • Wired | [https://www.wired.it/article/big-tech-uso-automatico-dati-training-ai/ Link]&lt;br /&gt;
*&#039;&#039;&#039;&#039;&#039;Le aziende devono valutare i rischi dell&#039;intelligenza artificiale&#039;&#039;&#039;&#039;&#039; • Wired | [https://www.wired.it/article/intelligenza-artificiale-rischi-ai-act-unione-europea/ Link]&lt;br /&gt;
*&#039;&#039;&#039;&#039;&#039;ChatGPT scatena lo scontro tra Microsoft e Google&#039;&#039;&#039;&#039;&#039; • Wired | [https://www.wired.it/article/chatgpt-bing-microsoft-google-ricerche-online-pubblicita/ Link]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;Contributi di Gabriele Franco&#039;&#039;&#039;&lt;br /&gt;
*&#039;&#039;&#039;&#039;&#039;IA e web scraping: le indicazioni del Garante della Privacy per difendersi&#039;&#039;&#039;&#039;&#039; • La Repubblica | [https://www.repubblica.it/tecnologia/2024/06/04/news/ia_e_web_scraping_le_indicazioni_del_garante_privacy_per_difendersi-423165957/ Link]&lt;br /&gt;
*&#039;&#039;&#039;&#039;&#039;Via libera del Parlamento europeo all’AI Act&#039;&#039;&#039;&#039;&#039; • Italian Tech | [https://www.italian.tech/2024/03/13/news/via_libera_del_parlamento_europeo_allai_act-422302635/ Link]&lt;br /&gt;
*&#039;&#039;&#039;&#039;&#039;Cosa sono le regulatory sandbox e che c’entrano con l’intelligenza artificiale&#039;&#039;&#039;&#039;&#039; • La Repubblica | [https://www.repubblica.it/tecnologia/2023/11/27/news/che_cosa_sono_le_regulatory_sandbox_e_cosa_centrano_con_lintelligenza_artificiale-421315721/ Link]&lt;br /&gt;
*&#039;&#039;&#039;&#039;&#039;5 cose da sapere sulla nuova legge europea sull’intelligenza artificiale&#039;&#039;&#039;&#039;&#039; • La Repubblica | [https://www.repubblica.it/tecnologia/2023/08/15/news/5_cose_da_sapere_sulla_nuova_legge_europea_sullintelligenza_artificiale-410651982/?ref=RHVB-BG-I302503236-P8-S2-T1/ Link]&lt;br /&gt;
*&#039;&#039;&#039;&#039;&#039;Tra norme rigide e libertà assoluta, le leggi sull’intelligenza artificiale nel mondo&#039;&#039;&#039;&#039;&#039; • La Repubblica | [https://www.repubblica.it/tecnologia/2023/07/11/news/intelligenza_artificiale_regole_leggi_mondo-407297812/ Link]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;*ARCHIVIO IN AGGIORNAMENTO*&#039;&#039;&#039;&lt;/div&gt;</summary>
		<author><name>InsaidewikiAA</name></author>
	</entry>
	<entry>
		<id>https://www.wikiaiact.it/w139/index.php?title=Approfondimenti&amp;diff=1340</id>
		<title>Approfondimenti</title>
		<link rel="alternate" type="text/html" href="https://www.wikiaiact.it/w139/index.php?title=Approfondimenti&amp;diff=1340"/>
		<updated>2024-09-16T16:02:39Z</updated>

		<summary type="html">&lt;p&gt;InsaidewikiAA: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;&amp;lt;big&amp;gt;&amp;lt;big&amp;gt;&amp;lt;big&amp;gt;Approfondimenti&amp;lt;/big&amp;gt;&amp;lt;/big&amp;gt;&amp;lt;/big&amp;gt;&lt;br /&gt;
&amp;lt;br /&amp;gt;&lt;br /&gt;
Di seguito è possibile trovare degli approfondimenti a cura del team di insAIde/PCG.&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;Contributi di Rocco Panetta&#039;&#039;&#039;&lt;br /&gt;
*&#039;&#039;&#039;&#039;&#039;IA, la prima convenzione mondiale sui diritti è un grande traguardo, ecco perché&#039;&#039;&#039;&#039;&#039; • Agenda Digitale | [https://www.agendadigitale.eu/sicurezza/privacy/ia-la-prima-convenzione-mondiale-sui-diritti-e-un-grande-traguardo-ecco-perche/ Link]&lt;br /&gt;
*&#039;&#039;&#039;&#039;&#039;Legge IA, Panetta: “Italia in recupero, serve più sinergia istituzionale”&#039;&#039;&#039;&#039;&#039; • Agenda Digitale | [https://www.agendadigitale.eu/sicurezza/privacy/legge-ia-panetta-italia-in-recupero-serve-piu-sinergia-istituzionale/ Link]&lt;br /&gt;
*&#039;&#039;&#039;&#039;&#039;L’AI Act e l’ingorgo delle regole&#039;&#039;&#039;&#039;&#039; • La Repubblica | [https://www.italian.tech/blog/digital-europe/2024/07/25/news/lai_act_e_lingorgo_dei_garanti_dei_dati-423413674/ Link]&lt;br /&gt;
*&#039;&#039;&#039;&#039;&#039;Privacy e AI, il Garante alla prova del futuro: i temi al centro della Relazione 2023&#039;&#039;&#039;&#039;&#039; • Agenda Digitale | [https://www.agendadigitale.eu/sicurezza/privacy/privacy-e-ai-il-garante-alla-prova-del-futuro-i-temi-al-centro-della-relazione-2023/ Link]&lt;br /&gt;
*&#039;&#039;&#039;&#039;&#039;Il ruolo dell’Italia nella partita dell’AI e il discorso del papa al G7&#039;&#039;&#039;&#039;&#039; • La Repubblica | [https://www.italian.tech/blog/digital-europe/2024/06/27/news/il_ruolo_dellitalia_nella_partita_dellai_e_il_discorso_del_papa_al_g7-423311820/ Link]&lt;br /&gt;
*&#039;&#039;&#039;&#039;&#039;Governance dell’AI Act: il ruolo delle Autorità in Italia ed Europa&#039;&#039;&#039;&#039;&#039; • Agenda Digitale | [https://www.agendadigitale.eu/cultura-digitale/governance-dellai-act-il-ruolo-delle-autorita-in-italia-ed-europa/ Link]&lt;br /&gt;
*&#039;&#039;&#039;&#039;&#039;The AI Act: A compass for approaching legislation with innovative and disruptive effects&#039;&#039;&#039;&#039;&#039; • Journal of Data Protection &amp;amp; Privacy, Henry Stewart Publications, 2024, vol. 6(4), p. 318-331 | [https://ideas.repec.org/a/aza/jdpp00/y2024v6i4p318-331.html Link]&lt;br /&gt;
*&#039;&#039;&#039;&#039;&#039;AI Act e sostegno all’innovazione: l’importanza delle sandbox normative&#039;&#039;&#039;&#039;&#039; • Agenda Digitale | [https://www.agendadigitale.eu/industry-4-0/ai-act-e-sostegno-allinnovazione-limportanza-delle-sandbox-normative/ Link]&lt;br /&gt;
*&#039;&#039;&#039;&#039;&#039;Prepararsi all’AI Act: strategie di conformità per professionisti e organizzazioni&#039;&#039;&#039;&#039;&#039; • Agenda Digitale | [https://www.agendadigitale.eu/industry-4-0/prepararsi-allai-act-strategie-di-conformita-per-professionisti-e-organizzazioni/ Link]&lt;br /&gt;
*&#039;&#039;&#039;&#039;&#039;AI Act, requisiti e obblighi per i sistemi ad alto rischio: tutto quello che c’è da sapere&#039;&#039;&#039;&#039;&#039; • Agenda Digitale | [https://www.agendadigitale.eu/industry-4-0/ai-act-requisiti-e-obblighi-per-i-sistemi-di-ia-ad-alto-rischio-tutto-quello-che-ce-da-sapere/ Link]&lt;br /&gt;
*&#039;&#039;&#039;&#039;&#039;AI Act, la visione “umano-centrica” sarà davvero un modello per il resto del mondo?&#039;&#039;&#039;&#039;&#039; • Agenda Digitale | [https://www.agendadigitale.eu/sicurezza/ai-act-la-visione-umano-centrica-sara-davvero-un-modello-per-il-resto-del-mondo/ Link]&lt;br /&gt;
*&#039;&#039;&#039;&#039;&#039;AI Act, Panetta: “Critiche sbagliate, era urgente regolare l’Intelligenza Artificiale”&#039;&#039;&#039;&#039;&#039; • Agenda Digitale | [https://www.agendadigitale.eu/cultura-digitale/ai-act-panetta-critiche-sbagliate-era-urgente-regolare-lintelligenza-artificiale/ Link]&lt;br /&gt;
*&#039;&#039;&#039;&#039;&#039;AI Act, disco verde dal Parlamento Ue. Panetta: “Ora aziende e PA si attivino subito”&#039;&#039;&#039;&#039;&#039; • CorCom | [https://www.corrierecomunicazioni.it/digital-economy/ai-act-disco-verde-dal-parlamento-ue-panetta-ora-aziende-e-pa-si-attivino-subito/ Link]&lt;br /&gt;
*&#039;&#039;&#039;&#039;&#039;AI Act: cos’è e come plasma l’intelligenza artificiale in Europa&#039;&#039;&#039;&#039;&#039; • Agenda Digitale | [https://www.agendadigitale.eu/cultura-digitale/ai-act-ci-siamo-ecco-come-plasmera-il-futuro-dellintelligenza-artificiale-in-europa/ Link]&lt;br /&gt;
*&#039;&#039;&#039;&#039;&#039;Panetta, “Sorveglianza di massa con l’AI Act? Ecco le garanzie”&#039;&#039;&#039;&#039;&#039; • Agenda Digitale | [https://www.agendadigitale.eu/sicurezza/privacy/panetta-tensioni-sul-controllo-facciale-nellai-act-le-autorita-sapranno-vigilare/ Link]&lt;br /&gt;
*&#039;&#039;&#039;&#039;&#039;AI Act, Panetta: “Poche cessioni sui diritti, bene”&#039;&#039;&#039;&#039;&#039; • Agenda Digitale | [https://www.agendadigitale.eu/sicurezza/privacy/ai-act-panetta-poche-cessioni-sui-diritti-bene/ Link]&lt;br /&gt;
*&#039;&#039;&#039;&#039;&#039;AI Act in dirittura di arrivo: il segreto sarà il bilanciamento tra esigenze di business e tutela dei diritti fondamentali&#039;&#039;&#039;&#039;&#039; • LegalCommunity | [https://panetta.it/2023/12/19/ai-act-in-dirittura-di-arrivo-il-segreto-sara-il-bilanciamento-tra-esigenze-di-business-e-tutela-dei-diritti-fondamentali/  Link]&lt;br /&gt;
*&#039;&#039;&#039;&#039;&#039;Regole AI, privacy: gli Stati Uniti si svegliano dal sonno&#039;&#039;&#039;&#039;&#039; • Agenda Digitale | [https://www.agendadigitale.eu/sicurezza/privacy/regole-ai-privacy-gli-stati-uniti-si-svegliano-dal-sonno/ Link]&lt;br /&gt;
*&#039;&#039;&#039;&#039;&#039;AI, accelerata per aiutare le imprese&#039;&#039;&#039;&#039;&#039; • Il Sole 24 Ore | [https://panetta.it/2023/10/30/rocco-panetta-sul-sole-24-ore-ai-accelerata-per-aiutare-le-imprese/ Link]&lt;br /&gt;
*&#039;&#039;&#039;&#039;&#039;G7 dei Garanti privacy, intelligenza artificiale e le altre sfide per il futuro&#039;&#039;&#039;&#039;&#039; • Agenda Digitale | [https://www.agendadigitale.eu/sicurezza/privacy/g7-dei-garanti-privacy-intelligenza-artificiale-e-le-altre-sfide-per-il-futuro/ Link]&lt;br /&gt;
*&#039;&#039;&#039;&#039;&#039;AI Act, Panetta: “Ecco la via per una tecnologia al servizio dell’umanità”&#039;&#039;&#039;&#039;&#039; • Agenda Digitale | [https://www.agendadigitale.eu/cultura-digitale/ai-act-panettaue-sulla-strada-giusta-ma-ancora-non-basta/ Link]&lt;br /&gt;
*&#039;&#039;&#039;&#039;&#039;Cooperazione necessaria tra Europa e Stati Uniti sull’AI&#039;&#039;&#039;&#039;&#039; • Il Sole 24 Ore | [https://panetta.it/2023/06/12/cooperazione-necessaria-tra-europa-e-stati-uniti-sullai/ Link]&lt;br /&gt;
*&#039;&#039;&#039;&#039;&#039;Cinque anni di GDPR, ma ora la sfida si chiama regole per l’IA&#039;&#039;&#039;&#039;&#039; • Agenda Digitale [https://www.agendadigitale.eu/sicurezza/privacy/cinque-anni-di-gdpr-ma-ora-la-sfida-si-chiama-regole-per-lia/ Link]&lt;br /&gt;
*&#039;&#039;&#039;&#039;&#039;ChatGpt, anche Altman teme rischi. È tempo di un Garante dei dati&#039;&#039;&#039;&#039;&#039; • CorCom | [https://www.corrierecomunicazioni.it/privacy/chatgpt-anche-altman-teme-rischi-e-tempo-di-un-garante-dei-dati/ Link]&lt;br /&gt;
*&#039;&#039;&#039;&#039;&#039;Intelligenza artificiale, sulla data protection linea comune Ue-Usa?&#039;&#039;&#039;&#039;&#039; • CorCom |[https://www.corrierecomunicazioni.it/podcast/intelligenza-artificiale-sulla-data-protection-linea-comune-ue-usa/ Link]&lt;br /&gt;
*&#039;&#039;&#039;&#039;&#039;ChatGPT bloccato: mossa del Garante Privacy per tutelare minori e dati&#039;&#039;&#039;&#039;&#039; • Il Sole 24 Ore | [https://panetta.it/2023/03/31/chatgpt-bloccato-mossa-del-garante-privacy-per-tutelare-minori-e-dati/ Link]&lt;br /&gt;
*&#039;&#039;&#039;&#039;&#039;Direttiva eu su responsabilità per danni da intelligenza artificiale: passo necessario per l’Europa&#039;&#039;&#039;&#039;&#039; • Agenda Digitale | [https://www.agendadigitale.eu/mercati-digitali/direttiva-eu-su-responsabilita-per-danni-da-intelligenza-artificiale-passo-necessario-per-leuropa/ Link]&lt;br /&gt;
*&#039;&#039;&#039;&#039;&#039;Intelligenza artificiale, la Ue cala il “poker”: tre chiavi di lettura per il nuovo Regolamento&#039;&#039;&#039;&#039;&#039; • Agenda Digitale | [https://www.agendadigitale.eu/cultura-digitale/intelligenza-artificiale-la-ue-cala-il-poker-tre-chiavi-di-lettura-per-il-nuovo-regolamento/ Link]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;Contributi di Vincenzo Tiani&#039;&#039;&#039;&lt;br /&gt;
*&#039;&#039;&#039;&#039;&#039;Intelligenza artificiale, quali rischi corriamo con le nuove regole europee&#039;&#039;&#039;&#039;&#039; • Domani | [https://www.editorialedomani.it/tecnologia/intelligenza-artificiale-quali-rischi-corriamo-con-le-nuove-regole-europee-krgrjbzr Link]&lt;br /&gt;
*&#039;&#039;&#039;&#039;&#039;Come evitare la pesca a strascico dei dati per allenare l’intelligenza artificiale&#039;&#039;&#039;&#039;&#039; • Wired | [https://www.wired.it/article/web-scraping-intelligenza-artificiale-garante-privacy/ Link]&lt;br /&gt;
*&#039;&#039;&#039;&#039;&#039;Le Big Tech stanno cambiando approccio: niente più uso automatico dei nostri dati per il training dell&#039;AI&#039;&#039;&#039;&#039;&#039; • Wired | [https://www.wired.it/article/big-tech-uso-automatico-dati-training-ai/ Link]&lt;br /&gt;
*&#039;&#039;&#039;&#039;&#039;Le aziende devono valutare i rischi dell&#039;intelligenza artificiale&#039;&#039;&#039;&#039;&#039; • Wired | [https://www.wired.it/article/intelligenza-artificiale-rischi-ai-act-unione-europea/ Link]&lt;br /&gt;
*&#039;&#039;&#039;&#039;&#039;ChatGPT scatena lo scontro tra Microsoft e Google&#039;&#039;&#039;&#039;&#039; • Wired | [https://www.wired.it/article/chatgpt-bing-microsoft-google-ricerche-online-pubblicita/ Link]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;Contributi di Gabriele Franco&#039;&#039;&#039;&lt;br /&gt;
*&#039;&#039;&#039;&#039;&#039;IA e web scraping: le indicazioni del Garante della Privacy per difendersi&#039;&#039;&#039;&#039;&#039; • La Repubblica | [https://www.repubblica.it/tecnologia/2024/06/04/news/ia_e_web_scraping_le_indicazioni_del_garante_privacy_per_difendersi-423165957/ Link]&lt;br /&gt;
*&#039;&#039;&#039;&#039;&#039;Via libera del Parlamento europeo all’AI Act&#039;&#039;&#039;&#039;&#039; • Italian Tech | [https://www.italian.tech/2024/03/13/news/via_libera_del_parlamento_europeo_allai_act-422302635/ Link]&lt;br /&gt;
*&#039;&#039;&#039;&#039;&#039;Cosa sono le regulatory sandbox e che c’entrano con l’intelligenza artificiale&#039;&#039;&#039;&#039;&#039; • La Repubblica | [https://www.repubblica.it/tecnologia/2023/11/27/news/che_cosa_sono_le_regulatory_sandbox_e_cosa_centrano_con_lintelligenza_artificiale-421315721/ Link]&lt;br /&gt;
*&#039;&#039;&#039;&#039;&#039;5 cose da sapere sulla nuova legge europea sull’intelligenza artificiale&#039;&#039;&#039;&#039;&#039; • La Repubblica | [https://www.repubblica.it/tecnologia/2023/08/15/news/5_cose_da_sapere_sulla_nuova_legge_europea_sullintelligenza_artificiale-410651982/?ref=RHVB-BG-I302503236-P8-S2-T1/ Link]&lt;br /&gt;
*&#039;&#039;&#039;&#039;&#039;Tra norme rigide e libertà assoluta, le leggi sull’intelligenza artificiale nel mondo&#039;&#039;&#039;&#039;&#039; • La Repubblica | [https://www.repubblica.it/tecnologia/2023/07/11/news/intelligenza_artificiale_regole_leggi_mondo-407297812/ Link]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;*ARCHIVIO IN AGGIORNAMENTO*&#039;&#039;&#039;&lt;/div&gt;</summary>
		<author><name>InsaidewikiAA</name></author>
	</entry>
	<entry>
		<id>https://www.wikiaiact.it/w139/index.php?title=Approfondimenti&amp;diff=1339</id>
		<title>Approfondimenti</title>
		<link rel="alternate" type="text/html" href="https://www.wikiaiact.it/w139/index.php?title=Approfondimenti&amp;diff=1339"/>
		<updated>2024-09-16T16:02:25Z</updated>

		<summary type="html">&lt;p&gt;InsaidewikiAA: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;&amp;lt;big&amp;gt;&amp;lt;big&amp;gt;&amp;lt;big&amp;gt;Approfondimenti&amp;lt;/big&amp;gt;&amp;lt;/big&amp;gt;&amp;lt;/big&amp;gt;&lt;br /&gt;
&amp;lt;br /&amp;gt;&lt;br /&gt;
Di seguito è possibile trovare degli approfondimenti a cura del team di insAIde/PCG.&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;Contributi di Rocco Panetta&#039;&#039;&#039;&lt;br /&gt;
*&#039;&#039;&#039;&#039;&#039;IA, la prima convenzione mondiale sui diritti è un grande traguardo, ecco perché&#039;&#039;&#039;&#039;&#039; • Agenda Digitale | [https://www.agendadigitale.eu/sicurezza/privacy/ia-la-prima-convenzione-mondiale-sui-diritti-e-un-grande-traguardo-ecco-perche/ Link]&lt;br /&gt;
*&#039;&#039;&#039;&#039;&#039;Legge IA, Panetta: “Italia in recupero, serve più sinergia istituzionale”&#039;&#039;&#039;&#039;&#039; • Agenda Digitale | [https://www.agendadigitale.eu/sicurezza/privacy/legge-ia-panetta-italia-in-recupero-serve-piu-sinergia-istituzionale/ Link]&lt;br /&gt;
*&#039;&#039;&#039;&#039;&#039;L’AI Act e l’ingorgo delle regole&#039;&#039;&#039;&#039;&#039; • La Repubblica | [https://www.italian.tech/blog/digital-europe/2024/07/25/news/lai_act_e_lingorgo_dei_garanti_dei_dati-423413674/ Link]&lt;br /&gt;
*&#039;&#039;&#039;&#039;&#039;Privacy e AI, il Garante alla prova del futuro: i temi al centro della Relazione 2023&#039;&#039;&#039;&#039;&#039; • Agenda Digitale | [https://www.agendadigitale.eu/sicurezza/privacy/privacy-e-ai-il-garante-alla-prova-del-futuro-i-temi-al-centro-della-relazione-2023/ Link]&lt;br /&gt;
*&#039;&#039;&#039;&#039;&#039;Il ruolo dell’Italia nella partita dell’AI e il discorso del papa al G7&#039;&#039;&#039;&#039;&#039; • La Repubblica | [https://www.italian.tech/blog/digital-europe/2024/06/27/news/il_ruolo_dellitalia_nella_partita_dellai_e_il_discorso_del_papa_al_g7-423311820/ Link]&lt;br /&gt;
*&#039;&#039;&#039;&#039;&#039;Governance dell’AI Act: il ruolo delle Autorità in Italia ed Europa&#039;&#039;&#039;&#039;&#039; • Agenda Digitale | [https://www.agendadigitale.eu/cultura-digitale/governance-dellai-act-il-ruolo-delle-autorita-in-italia-ed-europa/ Link]&lt;br /&gt;
*&#039;&#039;&#039;&#039;&#039;The AI Act: A compass for approaching legislation with innovative and disruptive effects&#039;&#039;&#039;&#039;&#039; • Journal of Data Protection &amp;amp; Privacy, Henry Stewart Publications, 2024, vol. 6(4), p. 318-331 | [https://ideas.repec.org/a/aza/jdpp00/y2024v6i4p318-331.html Link]&lt;br /&gt;
*&#039;&#039;&#039;&#039;&#039;AI Act e sostegno all’innovazione: l’importanza delle sandbox normative&#039;&#039;&#039;&#039;&#039; • Agenda Digitale | [https://www.agendadigitale.eu/industry-4-0/ai-act-e-sostegno-allinnovazione-limportanza-delle-sandbox-normative/ Link]&lt;br /&gt;
*&#039;&#039;&#039;&#039;&#039;Prepararsi all’AI Act: strategie di conformità per professionisti e organizzazioni&#039;&#039;&#039;&#039;&#039; • Agenda Digitale | [https://www.agendadigitale.eu/industry-4-0/prepararsi-allai-act-strategie-di-conformita-per-professionisti-e-organizzazioni/ Link]&lt;br /&gt;
*&#039;&#039;&#039;&#039;&#039;AI Act, requisiti e obblighi per i sistemi ad alto rischio: tutto quello che c’è da sapere&#039;&#039;&#039;&#039;&#039; • Agenda Digitale | [https://www.agendadigitale.eu/industry-4-0/ai-act-requisiti-e-obblighi-per-i-sistemi-di-ia-ad-alto-rischio-tutto-quello-che-ce-da-sapere/ Link]&lt;br /&gt;
*&#039;&#039;&#039;&#039;&#039;AI Act, la visione “umano-centrica” sarà davvero un modello per il resto del mondo?&#039;&#039;&#039;&#039;&#039; • Agenda Digitale | [https://www.agendadigitale.eu/sicurezza/ai-act-la-visione-umano-centrica-sara-davvero-un-modello-per-il-resto-del-mondo/ Link]&lt;br /&gt;
*&#039;&#039;&#039;&#039;&#039;AI Act, Panetta: “Critiche sbagliate, era urgente regolare l’Intelligenza Artificiale”&#039;&#039;&#039;&#039;&#039; • Agenda Digitale | [https://www.agendadigitale.eu/cultura-digitale/ai-act-panetta-critiche-sbagliate-era-urgente-regolare-lintelligenza-artificiale/ Link]&lt;br /&gt;
*&#039;&#039;&#039;&#039;&#039;AI Act, disco verde dal Parlamento Ue. Panetta: “Ora aziende e PA si attivino subito”&#039;&#039;&#039;&#039;&#039; • CorCom | [https://www.corrierecomunicazioni.it/digital-economy/ai-act-disco-verde-dal-parlamento-ue-panetta-ora-aziende-e-pa-si-attivino-subito/ Link]&lt;br /&gt;
*&#039;&#039;&#039;&#039;&#039;AI act: cos’è e come plasma l’intelligenza artificiale in Europa&#039;&#039;&#039;&#039;&#039; • Agenda Digitale | [https://www.agendadigitale.eu/cultura-digitale/ai-act-ci-siamo-ecco-come-plasmera-il-futuro-dellintelligenza-artificiale-in-europa/ Link]&lt;br /&gt;
*&#039;&#039;&#039;&#039;&#039;Panetta, “Sorveglianza di massa con l’AI Act? Ecco le garanzie”&#039;&#039;&#039;&#039;&#039; • Agenda Digitale | [https://www.agendadigitale.eu/sicurezza/privacy/panetta-tensioni-sul-controllo-facciale-nellai-act-le-autorita-sapranno-vigilare/ Link]&lt;br /&gt;
*&#039;&#039;&#039;&#039;&#039;AI Act, Panetta: “Poche cessioni sui diritti, bene”&#039;&#039;&#039;&#039;&#039; • Agenda Digitale | [https://www.agendadigitale.eu/sicurezza/privacy/ai-act-panetta-poche-cessioni-sui-diritti-bene/ Link]&lt;br /&gt;
*&#039;&#039;&#039;&#039;&#039;AI Act in dirittura di arrivo: il segreto sarà il bilanciamento tra esigenze di business e tutela dei diritti fondamentali&#039;&#039;&#039;&#039;&#039; • LegalCommunity | [https://panetta.it/2023/12/19/ai-act-in-dirittura-di-arrivo-il-segreto-sara-il-bilanciamento-tra-esigenze-di-business-e-tutela-dei-diritti-fondamentali/  Link]&lt;br /&gt;
*&#039;&#039;&#039;&#039;&#039;Regole AI, privacy: gli Stati Uniti si svegliano dal sonno&#039;&#039;&#039;&#039;&#039; • Agenda Digitale | [https://www.agendadigitale.eu/sicurezza/privacy/regole-ai-privacy-gli-stati-uniti-si-svegliano-dal-sonno/ Link]&lt;br /&gt;
*&#039;&#039;&#039;&#039;&#039;AI, accelerata per aiutare le imprese&#039;&#039;&#039;&#039;&#039; • Il Sole 24 Ore | [https://panetta.it/2023/10/30/rocco-panetta-sul-sole-24-ore-ai-accelerata-per-aiutare-le-imprese/ Link]&lt;br /&gt;
*&#039;&#039;&#039;&#039;&#039;G7 dei Garanti privacy, intelligenza artificiale e le altre sfide per il futuro&#039;&#039;&#039;&#039;&#039; • Agenda Digitale | [https://www.agendadigitale.eu/sicurezza/privacy/g7-dei-garanti-privacy-intelligenza-artificiale-e-le-altre-sfide-per-il-futuro/ Link]&lt;br /&gt;
*&#039;&#039;&#039;&#039;&#039;AI Act, Panetta: “Ecco la via per una tecnologia al servizio dell’umanità”&#039;&#039;&#039;&#039;&#039; • Agenda Digitale | [https://www.agendadigitale.eu/cultura-digitale/ai-act-panettaue-sulla-strada-giusta-ma-ancora-non-basta/ Link]&lt;br /&gt;
*&#039;&#039;&#039;&#039;&#039;Cooperazione necessaria tra Europa e Stati Uniti sull’AI&#039;&#039;&#039;&#039;&#039; • Il Sole 24 Ore | [https://panetta.it/2023/06/12/cooperazione-necessaria-tra-europa-e-stati-uniti-sullai/ Link]&lt;br /&gt;
*&#039;&#039;&#039;&#039;&#039;Cinque anni di GDPR, ma ora la sfida si chiama regole per l’IA&#039;&#039;&#039;&#039;&#039; • Agenda Digitale [https://www.agendadigitale.eu/sicurezza/privacy/cinque-anni-di-gdpr-ma-ora-la-sfida-si-chiama-regole-per-lia/ Link]&lt;br /&gt;
*&#039;&#039;&#039;&#039;&#039;ChatGpt, anche Altman teme rischi. È tempo di un Garante dei dati&#039;&#039;&#039;&#039;&#039; • CorCom | [https://www.corrierecomunicazioni.it/privacy/chatgpt-anche-altman-teme-rischi-e-tempo-di-un-garante-dei-dati/ Link]&lt;br /&gt;
*&#039;&#039;&#039;&#039;&#039;Intelligenza artificiale, sulla data protection linea comune Ue-Usa?&#039;&#039;&#039;&#039;&#039; • CorCom |[https://www.corrierecomunicazioni.it/podcast/intelligenza-artificiale-sulla-data-protection-linea-comune-ue-usa/ Link]&lt;br /&gt;
*&#039;&#039;&#039;&#039;&#039;ChatGPT bloccato: mossa del Garante Privacy per tutelare minori e dati&#039;&#039;&#039;&#039;&#039; • Il Sole 24 Ore | [https://panetta.it/2023/03/31/chatgpt-bloccato-mossa-del-garante-privacy-per-tutelare-minori-e-dati/ Link]&lt;br /&gt;
*&#039;&#039;&#039;&#039;&#039;Direttiva eu su responsabilità per danni da intelligenza artificiale: passo necessario per l’Europa&#039;&#039;&#039;&#039;&#039; • Agenda Digitale | [https://www.agendadigitale.eu/mercati-digitali/direttiva-eu-su-responsabilita-per-danni-da-intelligenza-artificiale-passo-necessario-per-leuropa/ Link]&lt;br /&gt;
*&#039;&#039;&#039;&#039;&#039;Intelligenza artificiale, la Ue cala il “poker”: tre chiavi di lettura per il nuovo Regolamento&#039;&#039;&#039;&#039;&#039; • Agenda Digitale | [https://www.agendadigitale.eu/cultura-digitale/intelligenza-artificiale-la-ue-cala-il-poker-tre-chiavi-di-lettura-per-il-nuovo-regolamento/ Link]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;Contributi di Vincenzo Tiani&#039;&#039;&#039;&lt;br /&gt;
*&#039;&#039;&#039;&#039;&#039;Intelligenza artificiale, quali rischi corriamo con le nuove regole europee&#039;&#039;&#039;&#039;&#039; • Domani | [https://www.editorialedomani.it/tecnologia/intelligenza-artificiale-quali-rischi-corriamo-con-le-nuove-regole-europee-krgrjbzr Link]&lt;br /&gt;
*&#039;&#039;&#039;&#039;&#039;Come evitare la pesca a strascico dei dati per allenare l’intelligenza artificiale&#039;&#039;&#039;&#039;&#039; • Wired | [https://www.wired.it/article/web-scraping-intelligenza-artificiale-garante-privacy/ Link]&lt;br /&gt;
*&#039;&#039;&#039;&#039;&#039;Le Big Tech stanno cambiando approccio: niente più uso automatico dei nostri dati per il training dell&#039;AI&#039;&#039;&#039;&#039;&#039; • Wired | [https://www.wired.it/article/big-tech-uso-automatico-dati-training-ai/ Link]&lt;br /&gt;
*&#039;&#039;&#039;&#039;&#039;Le aziende devono valutare i rischi dell&#039;intelligenza artificiale&#039;&#039;&#039;&#039;&#039; • Wired | [https://www.wired.it/article/intelligenza-artificiale-rischi-ai-act-unione-europea/ Link]&lt;br /&gt;
*&#039;&#039;&#039;&#039;&#039;ChatGPT scatena lo scontro tra Microsoft e Google&#039;&#039;&#039;&#039;&#039; • Wired | [https://www.wired.it/article/chatgpt-bing-microsoft-google-ricerche-online-pubblicita/ Link]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;Contributi di Gabriele Franco&#039;&#039;&#039;&lt;br /&gt;
*&#039;&#039;&#039;&#039;&#039;IA e web scraping: le indicazioni del Garante della Privacy per difendersi&#039;&#039;&#039;&#039;&#039; • La Repubblica | [https://www.repubblica.it/tecnologia/2024/06/04/news/ia_e_web_scraping_le_indicazioni_del_garante_privacy_per_difendersi-423165957/ Link]&lt;br /&gt;
*&#039;&#039;&#039;&#039;&#039;Via libera del Parlamento europeo all’AI Act&#039;&#039;&#039;&#039;&#039; • Italian Tech | [https://www.italian.tech/2024/03/13/news/via_libera_del_parlamento_europeo_allai_act-422302635/ Link]&lt;br /&gt;
*&#039;&#039;&#039;&#039;&#039;Cosa sono le regulatory sandbox e che c’entrano con l’intelligenza artificiale&#039;&#039;&#039;&#039;&#039; • La Repubblica | [https://www.repubblica.it/tecnologia/2023/11/27/news/che_cosa_sono_le_regulatory_sandbox_e_cosa_centrano_con_lintelligenza_artificiale-421315721/ Link]&lt;br /&gt;
*&#039;&#039;&#039;&#039;&#039;5 cose da sapere sulla nuova legge europea sull’intelligenza artificiale&#039;&#039;&#039;&#039;&#039; • La Repubblica | [https://www.repubblica.it/tecnologia/2023/08/15/news/5_cose_da_sapere_sulla_nuova_legge_europea_sullintelligenza_artificiale-410651982/?ref=RHVB-BG-I302503236-P8-S2-T1/ Link]&lt;br /&gt;
*&#039;&#039;&#039;&#039;&#039;Tra norme rigide e libertà assoluta, le leggi sull’intelligenza artificiale nel mondo&#039;&#039;&#039;&#039;&#039; • La Repubblica | [https://www.repubblica.it/tecnologia/2023/07/11/news/intelligenza_artificiale_regole_leggi_mondo-407297812/ Link]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;*ARCHIVIO IN AGGIORNAMENTO*&#039;&#039;&#039;&lt;/div&gt;</summary>
		<author><name>InsaidewikiAA</name></author>
	</entry>
	<entry>
		<id>https://www.wikiaiact.it/w139/index.php?title=Approfondimenti&amp;diff=1338</id>
		<title>Approfondimenti</title>
		<link rel="alternate" type="text/html" href="https://www.wikiaiact.it/w139/index.php?title=Approfondimenti&amp;diff=1338"/>
		<updated>2024-09-16T16:00:29Z</updated>

		<summary type="html">&lt;p&gt;InsaidewikiAA: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;&amp;lt;big&amp;gt;&amp;lt;big&amp;gt;&amp;lt;big&amp;gt;Approfondimenti&amp;lt;/big&amp;gt;&amp;lt;/big&amp;gt;&amp;lt;/big&amp;gt;&lt;br /&gt;
&amp;lt;br /&amp;gt;&lt;br /&gt;
Di seguito è possibile trovare degli approfondimenti a cura del team di insAIde/PCG.&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;Contributi di Rocco Panetta&#039;&#039;&#039;&lt;br /&gt;
*&#039;&#039;&#039;&#039;&#039;IA, la prima convenzione mondiale sui diritti è un grande traguardo, ecco perché&#039;&#039;&#039;&#039;&#039; • Agenda Digitale | [https://www.agendadigitale.eu/sicurezza/privacy/ia-la-prima-convenzione-mondiale-sui-diritti-e-un-grande-traguardo-ecco-perche/ Link]&lt;br /&gt;
*&#039;&#039;&#039;&#039;&#039;Legge IA, Panetta: “Italia in recupero, serve più sinergia istituzionale”&#039;&#039;&#039;&#039;&#039; • Agenda Digitale | [https://www.agendadigitale.eu/sicurezza/privacy/legge-ia-panetta-italia-in-recupero-serve-piu-sinergia-istituzionale/ Link]&lt;br /&gt;
*&#039;&#039;&#039;&#039;&#039;L’AI Act e l’ingorgo delle regole&#039;&#039;&#039;&#039;&#039; • La Repubblica | [https://www.italian.tech/blog/digital-europe/2024/07/25/news/lai_act_e_lingorgo_dei_garanti_dei_dati-423413674/ Link]&lt;br /&gt;
*&#039;&#039;&#039;&#039;&#039;Privacy e AI, il Garante alla prova del futuro: i temi al centro della Relazione 2023&#039;&#039;&#039;&#039;&#039; • Agenda Digitale | [https://www.agendadigitale.eu/sicurezza/privacy/privacy-e-ai-il-garante-alla-prova-del-futuro-i-temi-al-centro-della-relazione-2023/ Link]&lt;br /&gt;
*&#039;&#039;&#039;&#039;&#039;Il ruolo dell’Italia nella partita dell’AI e il discorso del papa al G7&#039;&#039;&#039;&#039;&#039; • La Repubblica | [https://www.italian.tech/blog/digital-europe/2024/06/27/news/il_ruolo_dellitalia_nella_partita_dellai_e_il_discorso_del_papa_al_g7-423311820/ Link]&lt;br /&gt;
*&#039;&#039;&#039;&#039;&#039;Governance dell’AI Act: il ruolo delle Autorità in Italia ed Europa&#039;&#039;&#039;&#039;&#039; • Agenda Digitale | [https://www.agendadigitale.eu/cultura-digitale/governance-dellai-act-il-ruolo-delle-autorita-in-italia-ed-europa/ Link]&lt;br /&gt;
*&#039;&#039;&#039;&#039;&#039;The AI Act: A compass for approaching legislation with innovative and disruptive effects&#039;&#039;&#039;&#039;&#039; • Journal of Data Protection &amp;amp; Privacy, Henry Stewart Publications, 2024, vol. 6(4), p. 318-331 | [https://ideas.repec.org/a/aza/jdpp00/y2024v6i4p318-331.html Link]&lt;br /&gt;
*&#039;&#039;&#039;&#039;&#039;AI Act e sostegno all’innovazione: l’importanza delle sandbox normative&#039;&#039;&#039;&#039;&#039; • Agenda Digitale | [https://www.agendadigitale.eu/industry-4-0/ai-act-e-sostegno-allinnovazione-limportanza-delle-sandbox-normative/ Link]&lt;br /&gt;
*&#039;&#039;&#039;&#039;&#039;Prepararsi all’AI Act: strategie di conformità per professionisti e organizzazioni&#039;&#039;&#039;&#039;&#039; • Agenda Digitale | [https://www.agendadigitale.eu/industry-4-0/prepararsi-allai-act-strategie-di-conformita-per-professionisti-e-organizzazioni/ Link]&lt;br /&gt;
*&#039;&#039;&#039;&#039;&#039;AI Act, requisiti e obblighi per i sistemi ad alto rischio: tutto quello che c’è da sapere&#039;&#039;&#039;&#039;&#039; • Agenda Digitale | [https://www.agendadigitale.eu/industry-4-0/ai-act-requisiti-e-obblighi-per-i-sistemi-di-ia-ad-alto-rischio-tutto-quello-che-ce-da-sapere/ Link]&lt;br /&gt;
*&#039;&#039;&#039;&#039;&#039;AI Act, la visione “umano-centrica” sarà davvero un modello per il resto del mondo?&#039;&#039;&#039;&#039;&#039; • Agenda Digitale | [https://www.agendadigitale.eu/sicurezza/ai-act-la-visione-umano-centrica-sara-davvero-un-modello-per-il-resto-del-mondo/ Link]&lt;br /&gt;
*&#039;&#039;&#039;&#039;&#039;AI Act, Panetta: “Critiche sbagliate, era urgente regolare l’Intelligenza Artificiale”&#039;&#039;&#039;&#039;&#039; • Agenda Digitale | [https://www.agendadigitale.eu/cultura-digitale/ai-act-panetta-critiche-sbagliate-era-urgente-regolare-lintelligenza-artificiale/ Link]&lt;br /&gt;
*&#039;&#039;&#039;&#039;&#039;AI Act, disco verde dal Parlamento Ue. Panetta: “Ora aziende e PA si attivino subito”&#039;&#039;&#039;&#039;&#039; • CorCom | [https://www.corrierecomunicazioni.it/digital-economy/ai-act-disco-verde-dal-parlamento-ue-panetta-ora-aziende-e-pa-si-attivino-subito/ Link]&lt;br /&gt;
*&#039;&#039;&#039;&#039;&#039;Ai act: cos’è e come plasma l’intelligenza artificiale in Europa&#039;&#039;&#039;&#039;&#039; • Agenda Digitale | [https://www.agendadigitale.eu/cultura-digitale/ai-act-ci-siamo-ecco-come-plasmera-il-futuro-dellintelligenza-artificiale-in-europa/ Link]&lt;br /&gt;
*&#039;&#039;&#039;&#039;&#039;Panetta, “Sorveglianza di massa con l’AI Act? Ecco le garanzie”&#039;&#039;&#039;&#039;&#039; • Agenda Digitale | [https://www.agendadigitale.eu/sicurezza/privacy/panetta-tensioni-sul-controllo-facciale-nellai-act-le-autorita-sapranno-vigilare/ Link]&lt;br /&gt;
*&#039;&#039;&#039;&#039;&#039;AI Act, Panetta: “Poche cessioni sui diritti, bene”&#039;&#039;&#039;&#039;&#039; • Agenda Digitale | [https://www.agendadigitale.eu/sicurezza/privacy/ai-act-panetta-poche-cessioni-sui-diritti-bene/ Link]&lt;br /&gt;
*&#039;&#039;&#039;&#039;&#039;AI Act in dirittura di arrivo: il segreto sarà il bilanciamento tra esigenze di business e tutela dei diritti fondamentali&#039;&#039;&#039;&#039;&#039; • LegalCommunity | [https://panetta.it/2023/12/19/ai-act-in-dirittura-di-arrivo-il-segreto-sara-il-bilanciamento-tra-esigenze-di-business-e-tutela-dei-diritti-fondamentali/  Link]&lt;br /&gt;
*&#039;&#039;&#039;&#039;&#039;Regole AI, privacy: gli Stati Uniti si svegliano dal sonno&#039;&#039;&#039;&#039;&#039; • Agenda Digitale | [https://www.agendadigitale.eu/sicurezza/privacy/regole-ai-privacy-gli-stati-uniti-si-svegliano-dal-sonno/ Link]&lt;br /&gt;
*&#039;&#039;&#039;&#039;&#039;AI, accelerata per aiutare le imprese&#039;&#039;&#039;&#039;&#039; • Il Sole 24 Ore | [https://panetta.it/2023/10/30/rocco-panetta-sul-sole-24-ore-ai-accelerata-per-aiutare-le-imprese/ Link]&lt;br /&gt;
*&#039;&#039;&#039;&#039;&#039;G7 dei Garanti privacy, intelligenza artificiale e le altre sfide per il futuro&#039;&#039;&#039;&#039;&#039; • Agenda Digitale | [https://www.agendadigitale.eu/sicurezza/privacy/g7-dei-garanti-privacy-intelligenza-artificiale-e-le-altre-sfide-per-il-futuro/ Link]&lt;br /&gt;
*&#039;&#039;&#039;&#039;&#039;AI Act, Panetta: “Ecco la via per una tecnologia al servizio dell’umanità”&#039;&#039;&#039;&#039;&#039; • Agenda Digitale | [https://www.agendadigitale.eu/cultura-digitale/ai-act-panettaue-sulla-strada-giusta-ma-ancora-non-basta/ Link]&lt;br /&gt;
*&#039;&#039;&#039;&#039;&#039;Cooperazione necessaria tra Europa e Stati Uniti sull’AI&#039;&#039;&#039;&#039;&#039; • Il Sole 24 Ore | [https://panetta.it/2023/06/12/cooperazione-necessaria-tra-europa-e-stati-uniti-sullai/ Link]&lt;br /&gt;
*&#039;&#039;&#039;&#039;&#039;Cinque anni di GDPR, ma ora la sfida si chiama regole per l’IA&#039;&#039;&#039;&#039;&#039; • Agenda Digitale [https://www.agendadigitale.eu/sicurezza/privacy/cinque-anni-di-gdpr-ma-ora-la-sfida-si-chiama-regole-per-lia/ Link]&lt;br /&gt;
*&#039;&#039;&#039;&#039;&#039;ChatGpt, anche Altman teme rischi. È tempo di un Garante dei dati&#039;&#039;&#039;&#039;&#039; • CorCom | [https://www.corrierecomunicazioni.it/privacy/chatgpt-anche-altman-teme-rischi-e-tempo-di-un-garante-dei-dati/ Link]&lt;br /&gt;
*&#039;&#039;&#039;&#039;&#039;Intelligenza artificiale, sulla data protection linea comune Ue-Usa?&#039;&#039;&#039;&#039;&#039; • CorCom |[https://www.corrierecomunicazioni.it/podcast/intelligenza-artificiale-sulla-data-protection-linea-comune-ue-usa/ Link]&lt;br /&gt;
*&#039;&#039;&#039;&#039;&#039;ChatGPT bloccato: mossa del Garante Privacy per tutelare minori e dati&#039;&#039;&#039;&#039;&#039; • Il Sole 24 Ore | [https://panetta.it/2023/03/31/chatgpt-bloccato-mossa-del-garante-privacy-per-tutelare-minori-e-dati/ Link]&lt;br /&gt;
*&#039;&#039;&#039;&#039;&#039;Direttiva eu su responsabilità per danni da intelligenza artificiale: passo necessario per l’Europa&#039;&#039;&#039;&#039;&#039; • Agenda Digitale | [https://www.agendadigitale.eu/mercati-digitali/direttiva-eu-su-responsabilita-per-danni-da-intelligenza-artificiale-passo-necessario-per-leuropa/ Link]&lt;br /&gt;
*&#039;&#039;&#039;&#039;&#039;Intelligenza artificiale, la Ue cala il “poker”: tre chiavi di lettura per il nuovo Regolamento&#039;&#039;&#039;&#039;&#039; • Agenda Digitale | [https://www.agendadigitale.eu/cultura-digitale/intelligenza-artificiale-la-ue-cala-il-poker-tre-chiavi-di-lettura-per-il-nuovo-regolamento/ Link]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;Contributi di Vincenzo Tiani&#039;&#039;&#039;&lt;br /&gt;
*&#039;&#039;&#039;&#039;&#039;Intelligenza artificiale, quali rischi corriamo con le nuove regole europee&#039;&#039;&#039;&#039;&#039; • Domani | [https://www.editorialedomani.it/tecnologia/intelligenza-artificiale-quali-rischi-corriamo-con-le-nuove-regole-europee-krgrjbzr Link]&lt;br /&gt;
*&#039;&#039;&#039;&#039;&#039;Come evitare la pesca a strascico dei dati per allenare l’intelligenza artificiale&#039;&#039;&#039;&#039;&#039; • Wired | [https://www.wired.it/article/web-scraping-intelligenza-artificiale-garante-privacy/ Link]&lt;br /&gt;
*&#039;&#039;&#039;&#039;&#039;Le Big Tech stanno cambiando approccio: niente più uso automatico dei nostri dati per il training dell&#039;AI&#039;&#039;&#039;&#039;&#039; • Wired | [https://www.wired.it/article/big-tech-uso-automatico-dati-training-ai/ Link]&lt;br /&gt;
*&#039;&#039;&#039;&#039;&#039;Le aziende devono valutare i rischi dell&#039;intelligenza artificiale&#039;&#039;&#039;&#039;&#039; • Wired | [https://www.wired.it/article/intelligenza-artificiale-rischi-ai-act-unione-europea/ Link]&lt;br /&gt;
*&#039;&#039;&#039;&#039;&#039;ChatGPT scatena lo scontro tra Microsoft e Google&#039;&#039;&#039;&#039;&#039; • Wired | [https://www.wired.it/article/chatgpt-bing-microsoft-google-ricerche-online-pubblicita/ Link]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;Contributi di Gabriele Franco&#039;&#039;&#039;&lt;br /&gt;
*&#039;&#039;&#039;&#039;&#039;IA e web scraping: le indicazioni del Garante della Privacy per difendersi&#039;&#039;&#039;&#039;&#039; • La Repubblica | [https://www.repubblica.it/tecnologia/2024/06/04/news/ia_e_web_scraping_le_indicazioni_del_garante_privacy_per_difendersi-423165957/ Link]&lt;br /&gt;
*&#039;&#039;&#039;&#039;&#039;Via libera del Parlamento europeo all’AI Act&#039;&#039;&#039;&#039;&#039; • Italian Tech | [https://www.italian.tech/2024/03/13/news/via_libera_del_parlamento_europeo_allai_act-422302635/ Link]&lt;br /&gt;
*&#039;&#039;&#039;&#039;&#039;Cosa sono le regulatory sandbox e che c’entrano con l’intelligenza artificiale&#039;&#039;&#039;&#039;&#039; • La Repubblica | [https://www.repubblica.it/tecnologia/2023/11/27/news/che_cosa_sono_le_regulatory_sandbox_e_cosa_centrano_con_lintelligenza_artificiale-421315721/ Link]&lt;br /&gt;
*&#039;&#039;&#039;&#039;&#039;5 cose da sapere sulla nuova legge europea sull’intelligenza artificiale&#039;&#039;&#039;&#039;&#039; • La Repubblica | [https://www.repubblica.it/tecnologia/2023/08/15/news/5_cose_da_sapere_sulla_nuova_legge_europea_sullintelligenza_artificiale-410651982/?ref=RHVB-BG-I302503236-P8-S2-T1/ Link]&lt;br /&gt;
*&#039;&#039;&#039;&#039;&#039;Tra norme rigide e libertà assoluta, le leggi sull’intelligenza artificiale nel mondo&#039;&#039;&#039;&#039;&#039; • La Repubblica | [https://www.repubblica.it/tecnologia/2023/07/11/news/intelligenza_artificiale_regole_leggi_mondo-407297812/ Link]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;*ARCHIVIO IN AGGIORNAMENTO*&#039;&#039;&#039;&lt;/div&gt;</summary>
		<author><name>InsaidewikiAA</name></author>
	</entry>
	<entry>
		<id>https://www.wikiaiact.it/w139/index.php?title=Approfondimenti&amp;diff=1337</id>
		<title>Approfondimenti</title>
		<link rel="alternate" type="text/html" href="https://www.wikiaiact.it/w139/index.php?title=Approfondimenti&amp;diff=1337"/>
		<updated>2024-09-16T15:19:58Z</updated>

		<summary type="html">&lt;p&gt;InsaidewikiAA: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;&amp;lt;big&amp;gt;&amp;lt;big&amp;gt;&amp;lt;big&amp;gt;Approfondimenti&amp;lt;/big&amp;gt;&amp;lt;/big&amp;gt;&amp;lt;/big&amp;gt;&lt;br /&gt;
&amp;lt;br /&amp;gt;&lt;br /&gt;
Di seguito è possibile trovare degli approfondimenti a cura del team di insAIde/PCG.&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;Contributi di Rocco Panetta&#039;&#039;&#039;&lt;br /&gt;
*&#039;&#039;&#039;&#039;&#039;IA, la prima convenzione mondiale sui diritti è un grande traguardo, ecco perché&#039;&#039;&#039;&#039;&#039; • Agenda Digitale | [https://www.agendadigitale.eu/sicurezza/privacy/ia-la-prima-convenzione-mondiale-sui-diritti-e-un-grande-traguardo-ecco-perche/ Link]&lt;br /&gt;
*&#039;&#039;&#039;&#039;&#039;Legge IA, Panetta: “Italia in recupero, serve più sinergia istituzionale”&#039;&#039;&#039;&#039;&#039; • Agenda Digitale | [https://www.agendadigitale.eu/sicurezza/privacy/legge-ia-panetta-italia-in-recupero-serve-piu-sinergia-istituzionale/ Link]&lt;br /&gt;
*&#039;&#039;&#039;&#039;&#039;L’AI Act e l’ingorgo delle regole&#039;&#039;&#039;&#039;&#039; • La Repubblica | [https://www.italian.tech/blog/digital-europe/2024/07/25/news/lai_act_e_lingorgo_dei_garanti_dei_dati-423413674/ Link]&lt;br /&gt;
*&#039;&#039;&#039;&#039;&#039;Privacy e AI, il Garante alla prova del futuro: i temi al centro della Relazione 2023&#039;&#039;&#039;&#039;&#039; • Agenda Digitale | [https://www.agendadigitale.eu/sicurezza/privacy/privacy-e-ai-il-garante-alla-prova-del-futuro-i-temi-al-centro-della-relazione-2023/ Link]&lt;br /&gt;
*&#039;&#039;&#039;&#039;&#039;Il ruolo dell’Italia nella partita dell’AI e il discorso del papa al G7&#039;&#039;&#039;&#039;&#039; • La Repubblica | [https://www.italian.tech/blog/digital-europe/2024/06/27/news/il_ruolo_dellitalia_nella_partita_dellai_e_il_discorso_del_papa_al_g7-423311820/ Link]&lt;br /&gt;
*&#039;&#039;&#039;&#039;&#039;Governance dell’AI Act: il ruolo delle Autorità in Italia ed Europa&#039;&#039;&#039;&#039;&#039; • Agenda Digitale | [https://www.agendadigitale.eu/cultura-digitale/governance-dellai-act-il-ruolo-delle-autorita-in-italia-ed-europa/ Link]&lt;br /&gt;
*&#039;&#039;&#039;&#039;&#039;The AI Act: A compass for approaching legislation with innovative and disruptive effects&#039;&#039;&#039;&#039;&#039; • Journal of Data Protection &amp;amp; Privacy, Henry Stewart Publications, 2024, vol. 6(4), p. 318-331 | [https://ideas.repec.org/a/aza/jdpp00/y2024v6i4p318-331.html Link]&lt;br /&gt;
*&#039;&#039;&#039;&#039;&#039;AI Act e sostegno all’innovazione: l’importanza delle sandbox normative&#039;&#039;&#039;&#039;&#039; • Agenda Digitale | [https://www.agendadigitale.eu/industry-4-0/ai-act-e-sostegno-allinnovazione-limportanza-delle-sandbox-normative/ Link]&lt;br /&gt;
*&#039;&#039;&#039;&#039;&#039;Prepararsi all’AI Act: strategie di conformità per professionisti e organizzazioni&#039;&#039;&#039;&#039;&#039; • Agenda Digitale | [https://www.agendadigitale.eu/industry-4-0/prepararsi-allai-act-strategie-di-conformita-per-professionisti-e-organizzazioni/ Link]&lt;br /&gt;
*&#039;&#039;&#039;&#039;&#039;AI Act, requisiti e obblighi per i sistemi ad alto rischio: tutto quello che c’è da sapere&#039;&#039;&#039;&#039;&#039; • Agenda Digitale | [https://www.agendadigitale.eu/industry-4-0/ai-act-requisiti-e-obblighi-per-i-sistemi-di-ia-ad-alto-rischio-tutto-quello-che-ce-da-sapere/ Link]&lt;br /&gt;
*&#039;&#039;&#039;&#039;&#039;AI Act, la visione “umano-centrica” sarà davvero un modello per il resto del mondo?&#039;&#039;&#039;&#039;&#039; • Agenda Digitale | [https://www.agendadigitale.eu/sicurezza/ai-act-la-visione-umano-centrica-sara-davvero-un-modello-per-il-resto-del-mondo/ Link]&lt;br /&gt;
*&#039;&#039;&#039;&#039;&#039;AI Act, Panetta: “Critiche sbagliate, era urgente regolare l’Intelligenza Artificiale”&#039;&#039;&#039;&#039;&#039; • Agenda Digitale | [https://www.agendadigitale.eu/cultura-digitale/ai-act-panetta-critiche-sbagliate-era-urgente-regolare-lintelligenza-artificiale/ Link]&lt;br /&gt;
*&#039;&#039;&#039;&#039;&#039;AI Act, disco verde dal Parlamento Ue. Panetta: “Ora aziende e PA si attivino subito”&#039;&#039;&#039;&#039;&#039; • CorCom | [https://www.corrierecomunicazioni.it/digital-economy/ai-act-disco-verde-dal-parlamento-ue-panetta-ora-aziende-e-pa-si-attivino-subito/ Link]&lt;br /&gt;
*&#039;&#039;&#039;&#039;&#039;Ai act: cos’è e come plasma l’intelligenza artificiale in Europa&#039;&#039;&#039;&#039;&#039; • Agenda Digitale | [https://www.agendadigitale.eu/cultura-digitale/ai-act-ci-siamo-ecco-come-plasmera-il-futuro-dellintelligenza-artificiale-in-europa/ Link]&lt;br /&gt;
*&#039;&#039;&#039;&#039;&#039;Panetta, “Sorveglianza di massa con l’AI Act? Ecco le garanzie”&#039;&#039;&#039;&#039;&#039; • Agenda Digitale | [https://www.agendadigitale.eu/sicurezza/privacy/panetta-tensioni-sul-controllo-facciale-nellai-act-le-autorita-sapranno-vigilare/ Link]&lt;br /&gt;
*&#039;&#039;&#039;&#039;&#039;AI Act, Panetta: “Poche cessioni sui diritti, bene”&#039;&#039;&#039;&#039;&#039; • Agenda Digitale | [https://www.agendadigitale.eu/sicurezza/privacy/ai-act-panetta-poche-cessioni-sui-diritti-bene/ Link]&lt;br /&gt;
*&#039;&#039;&#039;&#039;&#039;AI Act in dirittura di arrivo: il segreto sarà il bilanciamento tra esigenze di business e tutela dei diritti fondamentali&#039;&#039;&#039;&#039;&#039; • LegalCommunity | [https://panetta.it/2023/12/19/ai-act-in-dirittura-di-arrivo-il-segreto-sara-il-bilanciamento-tra-esigenze-di-business-e-tutela-dei-diritti-fondamentali/  Link]&lt;br /&gt;
*&#039;&#039;&#039;&#039;&#039;Regole AI, privacy: gli Stati Uniti si svegliano dal sonno&#039;&#039;&#039;&#039;&#039; • Agenda Digitale | [https://www.agendadigitale.eu/sicurezza/privacy/regole-ai-privacy-gli-stati-uniti-si-svegliano-dal-sonno/ Link]&lt;br /&gt;
*&#039;&#039;&#039;&#039;&#039;AI, accelerata per aiutare le imprese&#039;&#039;&#039;&#039;&#039; • Il Sole 24 Ore | [https://panetta.it/2023/10/30/rocco-panetta-sul-sole-24-ore-ai-accelerata-per-aiutare-le-imprese/ Link]&lt;br /&gt;
*&#039;&#039;&#039;&#039;&#039;G7 dei Garanti privacy, intelligenza artificiale e le altre sfide per il futuro&#039;&#039;&#039;&#039;&#039; • Agenda Digitale | [https://www.agendadigitale.eu/sicurezza/privacy/g7-dei-garanti-privacy-intelligenza-artificiale-e-le-altre-sfide-per-il-futuro/ Link]&lt;br /&gt;
*&#039;&#039;&#039;&#039;&#039;Intelligenza artificiale, la Ue cala il “poker”: tre chiavi di lettura per il nuovo Regolamento&#039;&#039;&#039;&#039;&#039; • Agenda Digitale | [https://www.agendadigitale.eu/cultura-digitale/intelligenza-artificiale-la-ue-cala-il-poker-tre-chiavi-di-lettura-per-il-nuovo-regolamento/ Link]&lt;br /&gt;
*&#039;&#039;&#039;&#039;&#039;AI Act, Panetta: “Ecco la via per una tecnologia al servizio dell’umanità”&#039;&#039;&#039;&#039;&#039; • Agenda Digitale | [https://www.agendadigitale.eu/cultura-digitale/ai-act-panettaue-sulla-strada-giusta-ma-ancora-non-basta/ Link]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;Contributi di Vincenzo Tiani&#039;&#039;&#039;&lt;br /&gt;
*&#039;&#039;&#039;&#039;&#039;Intelligenza artificiale, quali rischi corriamo con le nuove regole europee&#039;&#039;&#039;&#039;&#039; • Domani | [https://www.editorialedomani.it/tecnologia/intelligenza-artificiale-quali-rischi-corriamo-con-le-nuove-regole-europee-krgrjbzr Link]&lt;br /&gt;
*&#039;&#039;&#039;&#039;&#039;Come evitare la pesca a strascico dei dati per allenare l’intelligenza artificiale&#039;&#039;&#039;&#039;&#039; • Wired | [https://www.wired.it/article/web-scraping-intelligenza-artificiale-garante-privacy/ Link]&lt;br /&gt;
*&#039;&#039;&#039;&#039;&#039;Le Big Tech stanno cambiando approccio: niente più uso automatico dei nostri dati per il training dell&#039;AI&#039;&#039;&#039;&#039;&#039; • Wired | [https://www.wired.it/article/big-tech-uso-automatico-dati-training-ai/ Link]&lt;br /&gt;
*&#039;&#039;&#039;&#039;&#039;Le aziende devono valutare i rischi dell&#039;intelligenza artificiale&#039;&#039;&#039;&#039;&#039; • Wired | [https://www.wired.it/article/intelligenza-artificiale-rischi-ai-act-unione-europea/ Link]&lt;br /&gt;
*&#039;&#039;&#039;&#039;&#039;ChatGPT scatena lo scontro tra Microsoft e Google&#039;&#039;&#039;&#039;&#039; • Wired | [https://www.wired.it/article/chatgpt-bing-microsoft-google-ricerche-online-pubblicita/ Link]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;Contributi di Gabriele Franco&#039;&#039;&#039;&lt;br /&gt;
*&#039;&#039;&#039;&#039;&#039;IA e web scraping: le indicazioni del Garante della Privacy per difendersi&#039;&#039;&#039;&#039;&#039; • La Repubblica | [https://www.repubblica.it/tecnologia/2024/06/04/news/ia_e_web_scraping_le_indicazioni_del_garante_privacy_per_difendersi-423165957/ Link]&lt;br /&gt;
*&#039;&#039;&#039;&#039;&#039;Via libera del Parlamento europeo all’AI Act&#039;&#039;&#039;&#039;&#039; • Italian Tech | [https://www.italian.tech/2024/03/13/news/via_libera_del_parlamento_europeo_allai_act-422302635/ Link]&lt;br /&gt;
*&#039;&#039;&#039;&#039;&#039;Cosa sono le regulatory sandbox e che c’entrano con l’intelligenza artificiale&#039;&#039;&#039;&#039;&#039; • La Repubblica | [https://www.repubblica.it/tecnologia/2023/11/27/news/che_cosa_sono_le_regulatory_sandbox_e_cosa_centrano_con_lintelligenza_artificiale-421315721/ Link]&lt;br /&gt;
*&#039;&#039;&#039;&#039;&#039;5 cose da sapere sulla nuova legge europea sull’intelligenza artificiale&#039;&#039;&#039;&#039;&#039; • La Repubblica | [https://www.repubblica.it/tecnologia/2023/08/15/news/5_cose_da_sapere_sulla_nuova_legge_europea_sullintelligenza_artificiale-410651982/?ref=RHVB-BG-I302503236-P8-S2-T1/ Link]&lt;br /&gt;
*&#039;&#039;&#039;&#039;&#039;Tra norme rigide e libertà assoluta, le leggi sull’intelligenza artificiale nel mondo&#039;&#039;&#039;&#039;&#039; • La Repubblica | [https://www.repubblica.it/tecnologia/2023/07/11/news/intelligenza_artificiale_regole_leggi_mondo-407297812/ Link]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;*ARCHIVIO IN AGGIORNAMENTO*&#039;&#039;&#039;&lt;/div&gt;</summary>
		<author><name>InsaidewikiAA</name></author>
	</entry>
	<entry>
		<id>https://www.wikiaiact.it/w139/index.php?title=Art.26&amp;diff=1330</id>
		<title>Art.26</title>
		<link rel="alternate" type="text/html" href="https://www.wikiaiact.it/w139/index.php?title=Art.26&amp;diff=1330"/>
		<updated>2024-07-11T14:16:41Z</updated>

		<summary type="html">&lt;p&gt;InsaidewikiAA: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;&amp;lt;big&amp;gt;&amp;lt;big&amp;gt;&amp;lt;big&amp;gt;&#039;&#039;&#039;Obblighi dei deployer dei sistemi di IA ad alto rischio&#039;&#039;&#039;&amp;lt;/big&amp;gt;&amp;lt;/big&amp;gt;&amp;lt;/big&amp;gt; &lt;br /&gt;
[[Categoria:Articoli]]&lt;br /&gt;
{{DEFAULTSORT:Art.26 (Obblighi dei deployer dei sistemi di IA ad alto rischio)}}&lt;br /&gt;
{{Nota_Articoli}}&lt;br /&gt;
&lt;br /&gt;
1. I deployer di sistemi di IA ad alto rischio adottano idonee misure tecniche e organizzative per garantire di utilizzare tali sistemi conformemente alle istruzioni per l&#039;uso che accompagnano i sistemi, a norma dei paragrafi 3 e 6.&lt;br /&gt;
&lt;br /&gt;
2. I deployer affidano la sorveglianza umana a persone fisiche che dispongono della competenza, della formazione e dell&#039;autorità necessarie nonché del sostegno necessario.&lt;br /&gt;
&lt;br /&gt;
3. Gli obblighi di cui ai paragrafi 1 e 2 lasciano impregiudicati gli altri obblighi dei deployer previsti dal diritto dell&#039;Unione o nazionale e la libertà del deployer di organizzare le proprie risorse e attività al fine di attuare le misure di sorveglianza umana indicate dal fornitore.&lt;br /&gt;
&lt;br /&gt;
4. Fatti salvi i paragrafi 1 e 2, nella misura in cui esercita il controllo sui dati di input, il deployer garantisce che tali dati di input siano pertinenti e sufficientemente rappresentativi alla luce della finalità prevista del sistema di IA ad alto rischio.&lt;br /&gt;
&lt;br /&gt;
5. I deployer monitorano il funzionamento del sistema di IA ad alto rischio sulla base delle istruzioni per l&#039;uso e, se del caso, informano i fornitori a tale riguardo conformemente all&#039;[[Art.72|articolo 72]]. Qualora abbiano motivo di ritenere che l&#039;uso del sistema di IA ad alto rischio in conformità delle istruzioni possa comportare che il sistema di IA presenti un rischio ai sensi dell&#039;[[Art.79|articolo 79]], paragrafo 1, i deployer ne informano, senza indebito ritardo, il fornitore o il distributore e la pertinente autorità di vigilanza del mercato e sospendono l&#039;uso di tale sistema. Qualora abbiano individuato un incidente grave, i deployer ne informano immediatamente anche il fornitore, in primo luogo, e successivamente l&#039;importatore o il distributore e le pertinenti autorità di vigilanza del mercato. Nel caso in cui il deployer non sia in grado di raggiungere il fornitore, si applica mutatis mutandis l&#039;[[Art.73|articolo 73]]. Tale obbligo non riguarda i dati operativi sensibili dei deployer dei sistemi di IA che sono autorità di contrasto.&lt;br /&gt;
Per i deployer che sono istituti finanziari soggetti a requisiti in materia di governance, di dispositivi o di processi interni stabiliti a norma del diritto dell&#039;Unione in materia di servizi finanziari, l&#039;obbligo di monitoraggio di cui al primo comma si considera soddisfatto se sono soddisfatte le regole sui dispositivi, sui processi e sui meccanismi di governance interna a norma del pertinente diritto in materia di servizi finanziari.&lt;br /&gt;
&lt;br /&gt;
6. I deployer di sistemi di IA ad alto rischio conservano i log generati automaticamente da tale sistema di IA ad alto rischio, nella misura in cui tali log sono sotto il loro controllo, per un periodo adeguato alla prevista finalità del sistema di IA ad alto rischio, di almeno sei mesi, salvo diversamente disposto dal diritto dell&#039;Unione o nazionale applicabile, in particolare dal diritto dell&#039;Unione in materia di protezione dei dati personali. I deployer che sono istituti finanziari soggetti a requisiti in materia di governance, di dispositivi o di processi interni stabiliti a norma del diritto dell&#039;Unione in materia di servizi finanziari conservano i log come parte della documentazione conservata a norma del pertinente diritto dell&#039;Unione in materia di servizi finanziari.&lt;br /&gt;
&lt;br /&gt;
7. Prima di mettere in servizio o utilizzare un sistema di IA ad alto rischio sul luogo di lavoro, i deployer che sono datori di lavoro informano i rappresentanti dei lavoratori e i lavoratori interessati che saranno soggetti all&#039;uso del sistema di IA ad alto rischio. Tali informazioni sono fornite, se del caso, conformemente alle norme e alle procedure stabilite dal diritto e dalle prassi dell&#039;Unione e nazionali in materia di informazione dei lavoratori e dei loro rappresentanti.&lt;br /&gt;
8. I deployer di sistemi di IA ad alto rischio che sono autorità pubbliche o istituzioni, organi e organismi dell&#039;Unione rispettano gli obblighi di registrazione di cui all&#039;[[Art.49|articolo 49]]. Ove accertino che il sistema di IA ad alto rischio che intendono utilizzare non è stato registrato nella banca dati dell&#039;UE di cui all&#039;[[Art.71|articolo 71]], tali deployer non utilizzano tale sistema e ne informano il fornitore o il distributore.&lt;br /&gt;
&lt;br /&gt;
9. Se del caso, i deployer di sistemi di IA ad alto rischio usano le informazioni fornite a norma dell&#039;[[Art.13|articolo 13]] del presente regolamento per adempiere al loro obbligo di effettuare una valutazione d&#039;impatto sulla protezione dei dati a norma dell&#039;articolo 35 del regolamento (UE) 2016/679 o dell&#039;articolo 27 della direttiva (UE) 2016/680.&lt;br /&gt;
&lt;br /&gt;
10. Fatta salva la direttiva (UE) 2016/680, nel quadro di un&#039;indagine per la ricerca mirata di una persona sospettata o condannata per aver commesso un reato, il deployer di un sistema di IA ad alto rischio per l&#039;identificazione biometrica remota a posteriori chiede un&#039;autorizzazione, ex ante o senza indebito ritardo ed entro 48 ore, da parte di un&#039;autorità giudiziaria o amministrativa la cui decisione è vincolante e soggetta a controllo giurisdizionale, per l&#039;uso di tale sistema, tranne quando è utilizzato per l&#039;identificazione iniziale di un potenziale sospetto sulla base di fatti oggettivi e verificabili direttamente connessi al reato. Ogni uso è limitato a quanto strettamente necessario per le indagini su uno specifico reato.&lt;br /&gt;
Se l&#039;autorizzazione richiesta a norma del primo comma è respinta, l&#039;uso del sistema di identificazione biometrica remota a posteriori collegato a tale autorizzazione richiesta è interrotto con effetto immediato e i dati personali connessi all&#039;uso del sistema di IA ad alto rischio per il quale è stata richiesta l&#039;autorizzazione sono cancellati.&lt;br /&gt;
&lt;br /&gt;
In nessun caso tale sistema di IA ad alto rischio per l&#039;identificazione biometrica remota a posteriori è utilizzato a fini di contrasto in modo non mirato, senza alcun collegamento con un reato, un procedimento penale, una minaccia reale e attuale o reale e prevedibile di un reato o la ricerca di una determinata persona scomparsa. Occorre garantire che nessuna decisione che produca effetti giuridici negativi su una persona possa essere presa dalle autorità di contrasto unicamente sulla base dell&#039;output di tali sistemi di identificazione biometrica remota a posteriori.&lt;br /&gt;
Il presente paragrafo lascia impregiudicati l&#039;articolo 9 del regolamento (UE) 2016/679 e l&#039;articolo 10 della direttiva (UE) 2016/680 riguardo al trattamento dei dati biometrici.&lt;br /&gt;
Indipendentemente dalla finalità o dal deployer, ciascun uso di tali sistemi di IA ad alto rischio è documentato nel pertinente fascicolo di polizia e messo a disposizione della pertinente autorità di vigilanza del mercato e dell&#039;autorità nazionale per la protezione dei dati, su richiesta, escludendo la divulgazione di dati operativi sensibili relativi alle attività di contrasto. Il presente comma lascia impregiudicati i poteri conferiti alle autorità di controllo dalla direttiva (UE) 2016/680.&lt;br /&gt;
&lt;br /&gt;
I deployer presentano alle pertinenti autorità di vigilanza del mercato e alle autorità nazionali per la protezione dei dati relazioni annuali sul loro uso di sistemi di identificazione biometrica remota a posteriori, escludendo la divulgazione di dati operativi sensibili relativi alle attività di contrasto. Le relazioni possono essere aggregate per coprire più di un utilizzo.&lt;br /&gt;
Gli Stati membri possono introdurre, in conformità del diritto dell&#039;Unione, disposizioni più restrittive sull&#039;uso dei sistemi di identificazione biometrica remota a posteriori.&lt;br /&gt;
&lt;br /&gt;
11. Fatto salvo l&#039;[[Art.50|articolo 50]], del presente regolamento i deployer dei sistemi di IA ad alto rischio di cui all&#039;[[Allegato III|allegato III]] che adottano decisioni o assistono nell&#039;adozione di decisioni che riguardano persone fisiche informano queste ultime che sono soggette all&#039;uso del sistema di IA ad alto rischio. &lt;br /&gt;
Per i sistemi di IA ad alto rischio utilizzati a fini di contrasto si applica l&#039;articolo 13 della direttiva (UE) 2016/680. &lt;br /&gt;
&lt;br /&gt;
12. I deployer cooperano con le pertinenti autorità competenti in merito a qualsiasi azione intrapresa da dette autorità in relazione al sistema di IA ad alto rischio ai fini dell&#039;attuazione del presente regolamento.&lt;br /&gt;
&lt;br /&gt;
&amp;lt;br /&amp;gt;&lt;br /&gt;
&amp;lt;div style=&amp;quot;border: 1px solid #8d8d8d; background: #dcdcdc; display: flex; padding: .5rem 1rem; max-width: 100%;margin: 1rem auto&amp;quot;&amp;gt;&lt;br /&gt;
  &amp;lt;div style=&amp;quot;margin-right:1rem&amp;quot;&amp;gt;[[File:Octicons-file-text.svg|30px]]&amp;lt;/div&amp;gt;&lt;br /&gt;
  &amp;lt;div style=&amp;quot;width:100%&amp;quot;&amp;gt;&lt;br /&gt;
    &amp;lt;div style=&amp;quot;font-weight: bold&amp;quot;&amp;gt;&#039;&#039;&#039;CONSIDERANDO DI RIFERIMENTO&#039;&#039;&#039;&lt;br /&gt;
    {|&lt;br /&gt;
|[[C.91|Considerando &#039;&#039;&#039;91&#039;&#039;&#039;]]&lt;br /&gt;
|}&amp;lt;/div&amp;gt;&lt;br /&gt;
  &amp;lt;/div&amp;gt;&lt;br /&gt;
&amp;lt;/div&amp;gt;&lt;/div&gt;</summary>
		<author><name>InsaidewikiAA</name></author>
	</entry>
	<entry>
		<id>https://www.wikiaiact.it/w139/index.php?title=Art.56&amp;diff=1058</id>
		<title>Art.56</title>
		<link rel="alternate" type="text/html" href="https://www.wikiaiact.it/w139/index.php?title=Art.56&amp;diff=1058"/>
		<updated>2024-07-08T09:49:54Z</updated>

		<summary type="html">&lt;p&gt;InsaidewikiAA: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;&amp;lt;big&amp;gt;&amp;lt;big&amp;gt;&amp;lt;big&amp;gt;&#039;&#039;&#039;Codici di buone pratiche&#039;&#039;&#039;&amp;lt;/big&amp;gt;&amp;lt;/big&amp;gt;&amp;lt;/big&amp;gt;&lt;br /&gt;
[[Categoria:Articoli]]&lt;br /&gt;
{{DEFAULTSORT:Art.56 (Codici di buone pratiche)}}&lt;br /&gt;
{{Nota_Articoli}}&lt;br /&gt;
1. L&#039;ufficio per l&#039;IA incoraggia e agevola l&#039;elaborazione di codici di buone pratiche a livello dell&#039;Unione al fine di contribuire alla corretta applicazione del presente regolamento, tenendo conto degli approcci internazionali.&lt;br /&gt;
&lt;br /&gt;
2. L&#039;ufficio per l&#039;IA e il comitato mirano a garantire che i codici di buone pratiche contemplino almeno gli obblighi di cui agli [[Art.53|articoli 53]] e [[Art.55|55]], compreso quanto segue:&lt;br /&gt;
: a) i mezzi per garantire che le informazioni di cui [[Art.53|all&#039;articolo 53]], paragrafo 1, lettere a) e b), siano mantenute aggiornate alla luce degli sviluppi tecnologici e di mercato;&lt;br /&gt;
: b) un adeguato livello di dettaglio nella sintesi dei contenuti utilizzati per l&#039;addestramento;&lt;br /&gt;
: c) l&#039;individuazione del tipo e della natura dei rischi sistemici a livello dell&#039;Unione, comprese le rispettive fonti, se del caso; &lt;br /&gt;
: d) le misure, le procedure e le modalità per la valutazione e la gestione dei rischi sistemici a livello dell&#039;Unione, compresa la relativa documentazione, che devono essere proporzionate ai rischi e tenere conto della loro gravità e probabilità e delle sfide specifiche nell&#039;affrontare tali rischi alla luce dei modi possibili in cui tali rischi possono emergere e concretizzarsi lungo la catena del valore dell&#039;IA. &lt;br /&gt;
&lt;br /&gt;
3. L&#039;ufficio per l&#039;IA può invitare tutti i fornitori di modelli di IA per finalità generali, nonché le pertinenti autorità nazionali competenti, a partecipare all&#039;elaborazione dei codici di buone pratiche. Le organizzazioni della società civile, l&#039;industria, il mondo accademico e altri pertinenti portatori di interessi, quali i fornitori a valle e gli esperti indipendenti, possono sostenere il processo.&lt;br /&gt;
&lt;br /&gt;
4. L&#039;ufficio per l&#039;IA e il comitato mirano a garantire che i codici di buone pratiche definiscano chiaramente i loro obiettivi specifici e contengano impegni o misure, compresi, se del caso, indicatori chiave di prestazione, volti ad assicurare il conseguimento di tali obiettivi e che tengano debitamente conto delle esigenze e degli interessi di tutte le parti interessate, anche delle persone interessate, a livello dell&#039;Unione.&lt;br /&gt;
&lt;br /&gt;
5. L&#039;ufficio per l&#039;IA mira a garantire che i partecipanti all&#039;elaborazione dei codici di buone pratiche riferiscano periodicamente all&#039;ufficio per l&#039;IA in merito all&#039;attuazione degli impegni, alle misure adottate e ai loro esiti, anche rispetto agli indicatori chiave di prestazione, se del caso. Gli indicatori chiave di prestazione e gli impegni di comunicazione riflettono le differenze in termini di dimensioni e capacità tra i vari partecipanti.&lt;br /&gt;
&lt;br /&gt;
6. L&#039;ufficio per l&#039;IA e il comitato monitorano e valutano periodicamente il conseguimento degli obiettivi dei codici di buone pratiche da parte dei partecipanti e il loro contributo alla corretta applicazione del presente regolamento. L&#039;ufficio per l&#039;IA e il comitato valutano se i codici di buone pratiche contemplano gli obblighi di cui agli articoli [[Art.53|53]] e [[Art.55|55]], 4e monitorano e valutano periodicamente il conseguimento dei loro obiettivi. Essi pubblicano la loro valutazione riguardante l&#039;adeguatezza dei codici di buone pratiche. La Commissione può approvare, mediante atto di esecuzione, un codice di buone pratiche e conferire ad esso una validità generale all&#039;interno dell&#039;Unione. Tale atto di esecuzione è adottato secondo la procedura d&#039;esame di cui all&#039;[[Art.98|articolo 98]], paragrafo 2.&lt;br /&gt;
&lt;br /&gt;
7. L&#039;ufficio per l&#039;IA può invitare tutti i fornitori di modelli di IA per finalità generali ad aderire ai codici di buone pratiche. Per i fornitori di modelli di IA per finalità generali che non presentano rischi sistemici, tale adesione può essere limitata agli obblighi di cui all&#039;[[Art.53|articolo 53]], a meno che essi dichiarino esplicitamente il loro interesse ad aderire al codice nella sua interezza.&lt;br /&gt;
&lt;br /&gt;
8. L&#039;ufficio per l&#039;IA incoraggia e agevola, se del caso, anche il riesame e l&#039;adeguamento dei codici di buone pratiche, in particolare alla luce di norme emergenti. L&#039;ufficio per l&#039;IA fornisce assistenza per quanto riguarda la valutazione delle norme disponibili.&lt;br /&gt;
&lt;br /&gt;
9. I codici di buone pratiche sono pronti al più tardi entro ... [nove mesi dalla data di entrata in vigore del presente regolamento]. L&#039;ufficio per l&#039;IA adotta le misure necessarie, compreso l&#039;invito ai fornitori di cui al paragrafo 7. Qualora entro ... [12 mesi dalla data di entrata in vigore del presente regolamento], un codice di buone pratiche non possa essere portato a termine, o qualora l&#039;ufficio per l&#039;IA lo ritenga non adeguato a seguito della valutazione di cui al paragrafo 6 del presente articolo, la Commissione può prevedere, mediante atti di esecuzione, norme comuni per l&#039;attuazione degli obblighi di cui agli [[Art.53|articoli 53]] e [[Art.55|55]], comprese le questioni di cui al paragrafo 2 del presente articolo. Tali atti di esecuzione sono adottati secondo la procedura d&#039;esame di cui all&#039;[[Art.98|articolo 98]], paragrafo 2.&lt;br /&gt;
&lt;br /&gt;
&amp;lt;br /&amp;gt;&lt;br /&gt;
&amp;lt;div style=&amp;quot;border: 1px solid #8d8d8d; background: #dcdcdc; display: flex; padding: .5rem 1rem; max-width: 100%;margin: 1rem auto&amp;quot;&amp;gt;&lt;br /&gt;
  &amp;lt;div style=&amp;quot;margin-right:1rem&amp;quot;&amp;gt;[[File:Octicons-file-text.svg|30px]]&amp;lt;/div&amp;gt;&lt;br /&gt;
  &amp;lt;div style=&amp;quot;width:100%&amp;quot;&amp;gt;&lt;br /&gt;
    &amp;lt;div style=&amp;quot;font-weight: bold&amp;quot;&amp;gt;&#039;&#039;&#039;CONSIDERANDO DI RIFERIMENTO&#039;&#039;&#039;&lt;br /&gt;
    {|&lt;br /&gt;
|[[C.116|Considerando &#039;&#039;&#039;116&#039;&#039;&#039;]] •||[[C.117|Considerando &#039;&#039;&#039;117&#039;&#039;&#039;]]&lt;br /&gt;
|}&amp;lt;/div&amp;gt;&lt;br /&gt;
  &amp;lt;/div&amp;gt;&lt;br /&gt;
&amp;lt;/div&amp;gt;&lt;/div&gt;</summary>
		<author><name>InsaidewikiAA</name></author>
	</entry>
	<entry>
		<id>https://www.wikiaiact.it/w139/index.php?title=Art.55&amp;diff=1057</id>
		<title>Art.55</title>
		<link rel="alternate" type="text/html" href="https://www.wikiaiact.it/w139/index.php?title=Art.55&amp;diff=1057"/>
		<updated>2024-07-08T09:48:46Z</updated>

		<summary type="html">&lt;p&gt;InsaidewikiAA: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;&amp;lt;big&amp;gt;&amp;lt;big&amp;gt;&amp;lt;big&amp;gt;&#039;&#039;&#039;Obblighi dei fornitori di modelli di IA per finalità generali con rischio sistemico&#039;&#039;&#039;&amp;lt;/big&amp;gt;&amp;lt;/big&amp;gt;&amp;lt;/big&amp;gt;&lt;br /&gt;
&lt;br /&gt;
[[Categoria:Articoli]]&lt;br /&gt;
{{DEFAULTSORT:Art.55 (Obblighi dei fornitori di modelli di IA per finalità generali con rischio sistemico)}}&lt;br /&gt;
{{Nota_Articoli}}&lt;br /&gt;
&lt;br /&gt;
1. In aggiunta agli obblighi di cui agli [[Art.53|articoli 53]] e [[Art.54|54]], i fornitori di modelli di IA per finalità generali con rischio sistemico:&lt;br /&gt;
:a) effettuano una valutazione dei modelli in conformità di protocolli e strumenti standardizzati che rispecchino lo stato dell’arte, anche svolgendo e documentando il test contraddittorio (adversarial testing) del modello al fine di individuare e attenuare i rischi sistemici;&lt;br /&gt;
:b) valutano e attenuano i possibili rischi sistemici a livello dell’Unione, comprese le loro fonti, che possono derivare dallo sviluppo, dall’immissione sul mercato o dall’uso di modelli di IA per finalità generali con rischio sistemico;&lt;br /&gt;
:c) tengono traccia, documentano e riferiscono senza indebito ritardo all’ufficio per l’IA e, se del caso, alle autorità nazionali competenti, le informazioni pertinenti su incidenti gravi ed eventuali misure correttive per porvi rimedio; &lt;br /&gt;
:d) garantiscono un livello adeguato di protezione della cibersicurezza per quanto riguarda il modello di IA per finalità generali con rischio sistemico e l’infrastruttura fisica del modello.&lt;br /&gt;
2. I fornitori di modelli di IA per finalità generali con rischio sistemico possono basarsi su codici di buone pratiche ai sensi dell’[[Art.56|articolo 56]] per dimostrare la conformità agli obblighi di cui al paragrafo 1 del presente articolo, fino alla pubblicazione di una norma armonizzata. La conformità alle norme armonizzate europee garantisce ai fornitori la presunzione di conformità nella misura in cui tali norme contemplano tali obblighi. I fornitori di modelli di IA per finalità generali con rischi sistemici che non aderiscono a un codice di buone pratiche approvato o che non si conformano alle norme armonizzate europee devono dimostrare mezzi alternativi adeguati di conformità ai fini della valutazione da parte della Commissione.&amp;lt;br /&amp;gt;&lt;br /&gt;
3. Le informazioni o la documentazione ottenute a norma del presente articolo, compresi i segreti commerciali, sono trattate in conformità degli obblighi di riservatezza di cui all&#039;[[Art.78|articolo 78]].&lt;br /&gt;
&lt;br /&gt;
&amp;lt;br /&amp;gt;&lt;br /&gt;
&amp;lt;div style=&amp;quot;border: 1px solid #8d8d8d; background: #dcdcdc; display: flex; padding: .5rem 1rem; max-width: 100%;margin: 1rem auto&amp;quot;&amp;gt;&lt;br /&gt;
  &amp;lt;div style=&amp;quot;margin-right:1rem&amp;quot;&amp;gt;[[File:Octicons-file-text.svg|30px]]&amp;lt;/div&amp;gt;&lt;br /&gt;
  &amp;lt;div style=&amp;quot;width:100%&amp;quot;&amp;gt;&lt;br /&gt;
    &amp;lt;div style=&amp;quot;font-weight: bold&amp;quot;&amp;gt;&#039;&#039;&#039;CONSIDERANDO DI RIFERIMENTO&#039;&#039;&#039;&lt;br /&gt;
    {|&lt;br /&gt;
|[[C.114|Considerando &#039;&#039;&#039;114&#039;&#039;&#039;]] •||[[C.115|Considerando &#039;&#039;&#039;115&#039;&#039;&#039;]]&lt;br /&gt;
|}&amp;lt;/div&amp;gt;&lt;br /&gt;
  &amp;lt;/div&amp;gt;&lt;br /&gt;
&amp;lt;/div&amp;gt;&lt;/div&gt;</summary>
		<author><name>InsaidewikiAA</name></author>
	</entry>
	<entry>
		<id>https://www.wikiaiact.it/w139/index.php?title=Art.53&amp;diff=1056</id>
		<title>Art.53</title>
		<link rel="alternate" type="text/html" href="https://www.wikiaiact.it/w139/index.php?title=Art.53&amp;diff=1056"/>
		<updated>2024-07-08T09:46:09Z</updated>

		<summary type="html">&lt;p&gt;InsaidewikiAA: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;&amp;lt;big&amp;gt;&amp;lt;big&amp;gt;&amp;lt;big&amp;gt;&#039;&#039;&#039;Obblighi dei fornitori di modelli di IA per finalità generali&#039;&#039;&#039;&amp;lt;/big&amp;gt;&amp;lt;/big&amp;gt;&amp;lt;/big&amp;gt;&lt;br /&gt;
&lt;br /&gt;
[[Categoria:Articoli]]&lt;br /&gt;
{{DEFAULTSORT:Art.53 (Obblighi dei fornitori di modelli di IA per finalità generali)}}&lt;br /&gt;
{{Nota_Articoli}}&lt;br /&gt;
&lt;br /&gt;
1. I fornitori di modelli di IA per finalità generali:&lt;br /&gt;
:a) redigono e mantengono aggiornata la documentazione tecnica del modello, compresi il processo di addestramento e prova e i risultati della sua valutazione, che contiene almeno le informazioni di cui all&#039;[[Allegato XI|allegato XI]] affinché possa essere trasmessa, su richiesta, all&#039;ufficio per l&#039;IA e alle autorità nazionali competenti;&lt;br /&gt;
:b) elaborano, mantengono aggiornate e mettono a disposizione informazioni e documentazione per i fornitori di sistemi di IA che intendono integrare il modello di IA per finalità generali nei loro sistemi di IA. Fatta salva la necessità di rispettare e proteggere i diritti di proprietà intellettuale e le informazioni commerciali riservate o i segreti commerciali conformemente al diritto dell&#039;Unione e nazionale, le informazioni e la documentazione:&lt;br /&gt;
::i) consentono ai fornitori di sistemi di IA di avere una buona comprensione delle capacità e dei limiti del modello di IA per finalità generali e di adempiere ai loro obblighi a norma del presente regolamento; nonché&lt;br /&gt;
::ii) contengono almeno gli elementi di cui all&#039;[[Allegato XII|allegato XII]];&lt;br /&gt;
:c) attuano una politica volta ad adempiere al diritto dell&#039;Unione in materia di diritto d&#039;autore e diritti ad esso collegati e, in particolare, a individuare e rispettare, anche attraverso tecnologie all&#039;avanguardia, una riserva di diritti espressa a norma dell&#039;articolo 4, paragrafo 3, della direttiva (UE) 2019/790;&lt;br /&gt;
:d) redigono e mettono a disposizione del pubblico una sintesi sufficientemente dettagliata dei contenuti utilizzati per l&#039;addestramento del modello di IA per finalità generali, secondo un modello fornito dall&#039;ufficio per l&#039;IA.&lt;br /&gt;
2. Gli obblighi di cui al paragrafo 1, lettere a) e b), non si applicano ai fornitori di modelli di IA rilasciati con licenza libera e open source che consentono l&#039;accesso, l&#039;uso, la modifica e la distribuzione del modello e i cui parametri, compresi i pesi, le informazioni sull&#039;architettura del modello e le informazioni sull&#039;uso del modello, sono resi pubblici. Tale eccezione non si applica ai modelli di IA per finalità generali con rischi sistemici.&amp;lt;br /&amp;gt;&lt;br /&gt;
3. I fornitori di modelli di IA per finalità generali collaborano, secondo necessità, con la Commissione e le autorità nazionali competenti nell&#039;esercizio delle loro competenze e dei loro poteri a norma del presente regolamento.&amp;lt;br /&amp;gt;&lt;br /&gt;
4. I fornitori di modelli di IA per finalità generali possono basarsi su codici di buone pratiche ai sensi dell&#039;[[Art.56|articolo 56]] per dimostrare la conformità agli obblighi di cui al paragrafo 1 del presente articolo, finché non è pubblicata una norma armonizzata. La conformità alle norme armonizzate europee garantisce ai fornitori la presunzione di conformità nella misura in cui tali norme contemplano tali obblighi. I fornitori di modelli di IA per finalità generali che non aderiscono a un codice di buone pratiche approvato dimostrano mezzi alternativi adeguati di conformità ai fini di approvazione da parte della Commissione.&amp;lt;br /&amp;gt;&lt;br /&gt;
5. Allo scopo di agevolare la conformità all&#039;[[Allegato XI|allegato XI]], in particolare al punto 2, lettere d) ed e), alla Commissione è conferito il potere di adottare atti delegati a norma dell&#039;[[Art.97|articolo 97]] per specificare le metodologie di misurazione e di calcolo al fine di consentire che la documentazione sia comparabile e verificabile.&amp;lt;br /&amp;gt;&lt;br /&gt;
6. Alla Commissione è conferito il potere di adottare atti delegati a norma dell&#039;[[Art.97|articolo 97, paragrafo 2]], per modificare gli [[Allegato XI|allegati XI]] e [[Allegato XII|XII]] alla luce degli sviluppi tecnologici in evoluzione.&amp;lt;br /&amp;gt;&lt;br /&gt;
7. Le informazioni o la documentazione ottenute a norma del presente articolo, compresi i segreti commerciali, sono trattate in conformità degli obblighi di riservatezza di cui all&#039;[[Art.78|articolo 78]].&lt;br /&gt;
&lt;br /&gt;
&amp;lt;br /&amp;gt;&lt;br /&gt;
&amp;lt;div style=&amp;quot;border: 1px solid #8d8d8d; background: #dcdcdc; display: flex; padding: .5rem 1rem; max-width: 100%;margin: 1rem auto&amp;quot;&amp;gt;&lt;br /&gt;
  &amp;lt;div style=&amp;quot;margin-right:1rem&amp;quot;&amp;gt;[[File:Octicons-file-text.svg|30px]]&amp;lt;/div&amp;gt;&lt;br /&gt;
  &amp;lt;div style=&amp;quot;width:100%&amp;quot;&amp;gt;&lt;br /&gt;
    &amp;lt;div style=&amp;quot;font-weight: bold&amp;quot;&amp;gt;&#039;&#039;&#039;CONSIDERANDO DI RIFERIMENTO&#039;&#039;&#039;&lt;br /&gt;
    {|&lt;br /&gt;
|[[C.101|Considerando &#039;&#039;&#039;101&#039;&#039;&#039;]] •||[[C.102|Considerando &#039;&#039;&#039;102&#039;&#039;&#039;]]•||[[C.103|Considerando &#039;&#039;&#039;103&#039;&#039;&#039;]]•||[[C.104|Considerando &#039;&#039;&#039;104&#039;&#039;&#039;]]•||[[C.105|Considerando &#039;&#039;&#039;105&#039;&#039;&#039;]]•||[[C.106|Considerando &#039;&#039;&#039;106&#039;&#039;&#039;]]•||[[C.107|Considerando &#039;&#039;&#039;107&#039;&#039;&#039;]]•||[[C.108|Considerando &#039;&#039;&#039;108&#039;&#039;&#039;]]•||[[C.109|Considerando &#039;&#039;&#039;109&#039;&#039;&#039;]]&lt;br /&gt;
|}&amp;lt;/div&amp;gt;&lt;br /&gt;
  &amp;lt;/div&amp;gt;&lt;br /&gt;
&amp;lt;/div&amp;gt;&lt;/div&gt;</summary>
		<author><name>InsaidewikiAA</name></author>
	</entry>
	<entry>
		<id>https://www.wikiaiact.it/w139/index.php?title=Art.52&amp;diff=1055</id>
		<title>Art.52</title>
		<link rel="alternate" type="text/html" href="https://www.wikiaiact.it/w139/index.php?title=Art.52&amp;diff=1055"/>
		<updated>2024-07-08T09:43:25Z</updated>

		<summary type="html">&lt;p&gt;InsaidewikiAA: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;&amp;lt;big&amp;gt;&amp;lt;big&amp;gt;&amp;lt;big&amp;gt;&#039;&#039;&#039;Procedura&#039;&#039;&#039;&amp;lt;/big&amp;gt;&amp;lt;/big&amp;gt;&amp;lt;/big&amp;gt;&lt;br /&gt;
&lt;br /&gt;
[[Categoria:Articoli]]&lt;br /&gt;
{{DEFAULTSORT:Art.52 (Procedura)}}&lt;br /&gt;
{{Nota_Articoli}}&lt;br /&gt;
&lt;br /&gt;
1. Se un modello di IA per finalità generali soddisfa la condizione di cui all’[[Art.51|articolo 51, paragrafo 1, lettera a)]], il fornitore pertinente informa la Commissione senza ritardo e in ogni caso entro due settimane dal soddisfacimento di tale requisito o dal momento in cui viene a conoscenza che tale requisito sarà soddisfatto. Tale notifica comprende le informazioni necessarie a dimostrare che il requisito in questione è stato soddisfatto. Se la Commissione viene a conoscenza di un modello di IA per finalità generali che presenta rischi sistemici di cui non è stata informata, può decidere di designarlo come modello con rischio sistemico.&amp;lt;br /&amp;gt;&lt;br /&gt;
2. Il fornitore di un modello di IA per finalità generali che soddisfa la condizione di cui all’[[Art.51|articolo 51, paragrafo 1, lettera a)]], può presentare, unitamente alla sua notifica, argomentazioni sufficientemente fondate per dimostrare che, in via eccezionale, sebbene soddisfi tale requisito, il modello di IA per finalità generali non presenta, a causa delle sue caratteristiche specifiche, rischi sistemici e non dovrebbe essere pertanto classificato come modello di IA per finalità generali con rischio sistemico. &amp;lt;br /&amp;gt;&lt;br /&gt;
3. Se la Commissione conclude che le argomentazioni presentate a norma del paragrafo 2 non sono sufficientemente fondate e il fornitore in questione non è stato in grado di dimostrare che il modello di IA per finalità generali non presenta, per le sue caratteristiche specifiche, rischi sistemici, essa respinge tali argomentazioni e il modello di IA per finalità generali è considerato un modello di IA per finalità generali con rischio sistemico. &amp;lt;br /&amp;gt;&lt;br /&gt;
4. La Commissione può designare un modello di IA per finalità generali come modello che presenta rischi sistemici, ex officio o a seguito di una segnalazione qualificata del gruppo di esperti scientifici a norma dell’[[Art.90|articolo 90, paragrafo 1, lettera a)]], sulla base dei criteri di cui all’[[Allegato XIII|allegato XIII]]. &lt;br /&gt;
Alla Commissione è conferito il potere di adottare atti delegati a norma dell’[[Art.97|articolo 97]] per modificare l’[[Allegato XIII|allegato XIII]] specificando e aggiornando i criteri di cui a tale allegato. &amp;lt;br /&amp;gt;&lt;br /&gt;
5. Su richiesta motivata di un fornitore il cui modello è stato designato come modello di IA per finalità generali con rischio sistemico a norma del paragrafo 4, la Commissione, tenendo conto della richiesta, può decidere di valutare nuovamente se si possa ancora ritenere che il modello di IA per finalità generali presenti rischi sistemici sulla base dei criteri di cui all&#039;[[Allegato XIII|allegato XIII]]. Tale richiesta contiene motivi oggettivi, dettagliati e nuovi emersi dopo la decisione di designazione. I fornitori possono chiedere una nuova valutazione non prima di sei mesi dopo la decisione di designazione. Se la Commissione, a seguito della nuova valutazione, decide di mantenere la designazione come modello di IA per finalità generali con rischio sistemico, i fornitori possono chiedere una nuova valutazione non prima di sei mesi dopo tale decisione.&amp;lt;br /&amp;gt;&lt;br /&gt;
6. La Commissione garantisce che sia pubblicato un elenco di modelli di IA per finalità generali con rischio sistemico e lo mantiene aggiornato, fatta salva la necessità di rispettare e proteggere i diritti di proprietà intellettuale e le informazioni commerciali riservate o i segreti commerciali conformemente al diritto dell&#039;Unione e nazionale.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&amp;lt;br /&amp;gt;&lt;br /&gt;
&amp;lt;div style=&amp;quot;border: 1px solid #8d8d8d; background: #dcdcdc; display: flex; padding: .5rem 1rem; max-width: 100%;margin: 1rem auto&amp;quot;&amp;gt;&lt;br /&gt;
  &amp;lt;div style=&amp;quot;margin-right:1rem&amp;quot;&amp;gt;[[File:Octicons-file-text.svg|30px]]&amp;lt;/div&amp;gt;&lt;br /&gt;
  &amp;lt;div style=&amp;quot;width:100%&amp;quot;&amp;gt;&lt;br /&gt;
    &amp;lt;div style=&amp;quot;font-weight: bold&amp;quot;&amp;gt;&#039;&#039;&#039;CONSIDERANDO DI RIFERIMENTO&#039;&#039;&#039;&lt;br /&gt;
    {|&lt;br /&gt;
|[[C.112|Considerando &#039;&#039;&#039;111&#039;&#039;&#039;]]•||[[C.113|Considerando &#039;&#039;&#039;113&#039;&#039;&#039;]]&lt;br /&gt;
|}&amp;lt;/div&amp;gt;&lt;br /&gt;
  &amp;lt;/div&amp;gt;&lt;br /&gt;
&amp;lt;/div&amp;gt;&lt;/div&gt;</summary>
		<author><name>InsaidewikiAA</name></author>
	</entry>
	<entry>
		<id>https://www.wikiaiact.it/w139/index.php?title=Art.51&amp;diff=1054</id>
		<title>Art.51</title>
		<link rel="alternate" type="text/html" href="https://www.wikiaiact.it/w139/index.php?title=Art.51&amp;diff=1054"/>
		<updated>2024-07-08T09:42:25Z</updated>

		<summary type="html">&lt;p&gt;InsaidewikiAA: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;&amp;lt;big&amp;gt;&amp;lt;big&amp;gt;&amp;lt;big&amp;gt;&#039;&#039;&#039;Classificazione dei modelli di IA per finalità generali come modelli di IA per finalità generali con rischio sistemico&#039;&#039;&#039;&amp;lt;/big&amp;gt;&amp;lt;/big&amp;gt;&amp;lt;/big&amp;gt;&lt;br /&gt;
&lt;br /&gt;
[[Categoria:Articoli]]&lt;br /&gt;
{{DEFAULTSORT:Art.51 (Classificazione dei modelli di IA per finalità generali come modelli di IA per finalità generali con rischio sistemico)}}&lt;br /&gt;
{{Nota_Articoli}}&lt;br /&gt;
&lt;br /&gt;
1. Un modello di IA per finalità generali è classificato come modello di IA per finalità generali con rischio sistemico se soddisfa una delle condizioni seguenti:&lt;br /&gt;
:a) presenta capacità di impatto elevato valutate sulla base di strumenti tecnici e metodologie adeguati, compresi indicatori e parametri di riferimento;&lt;br /&gt;
:b) sulla base di una decisione della Commissione, ex officio o a seguito di una segnalazione qualificata del gruppo di esperti scientifici, presenta capacità o un impatto equivalenti a quelli di cui alla lettera a), tenendo conto dei criteri di cui all&#039;[[Allegato XIII|allegato XIII]].&lt;br /&gt;
2. Si presume che un modello di IA per finalità generali abbia capacità di impatto elevato a norma del paragrafo 1, lettera a), quando la quantità cumulativa di calcolo utilizzata per il suo addestramento misurata in operazioni in virgola mobile è superiore a 10&amp;lt;sup&amp;gt;25&amp;lt;/sup&amp;gt; .&amp;lt;br /&amp;gt;&lt;br /&gt;
3. La Commissione adotta atti delegati a norma dell&#039;[[Art.97|articolo 97]] per modificare le soglie di cui ai paragrafi 1 e 2 del presente articolo, nonché per integrare parametri di riferimento e indicatori alla luce degli sviluppi tecnologici in evoluzione, quali miglioramenti algoritmici o una maggiore efficienza dell&#039;hardware, ove necessario, affinché tali soglie riflettano lo stato dell&#039;arte.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&amp;lt;br /&amp;gt;&lt;br /&gt;
&amp;lt;div style=&amp;quot;border: 1px solid #8d8d8d; background: #dcdcdc; display: flex; padding: .5rem 1rem; max-width: 100%;margin: 1rem auto&amp;quot;&amp;gt;&lt;br /&gt;
  &amp;lt;div style=&amp;quot;margin-right:1rem&amp;quot;&amp;gt;[[File:Octicons-file-text.svg|30px]]&amp;lt;/div&amp;gt;&lt;br /&gt;
  &amp;lt;div style=&amp;quot;width:100%&amp;quot;&amp;gt;&lt;br /&gt;
    &amp;lt;div style=&amp;quot;font-weight: bold&amp;quot;&amp;gt;&#039;&#039;&#039;CONSIDERANDO DI RIFERIMENTO&#039;&#039;&#039;&lt;br /&gt;
    {|&lt;br /&gt;
|[[C.110|Considerando &#039;&#039;&#039;110&#039;&#039;&#039;]]•||[[C.111|Considerando &#039;&#039;&#039;111&#039;&#039;&#039;]]&lt;br /&gt;
|}&amp;lt;/div&amp;gt;&lt;br /&gt;
  &amp;lt;/div&amp;gt;&lt;br /&gt;
&amp;lt;/div&amp;gt;&lt;/div&gt;</summary>
		<author><name>InsaidewikiAA</name></author>
	</entry>
	<entry>
		<id>https://www.wikiaiact.it/w139/index.php?title=Art.50&amp;diff=1053</id>
		<title>Art.50</title>
		<link rel="alternate" type="text/html" href="https://www.wikiaiact.it/w139/index.php?title=Art.50&amp;diff=1053"/>
		<updated>2024-07-08T09:41:04Z</updated>

		<summary type="html">&lt;p&gt;InsaidewikiAA: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;&amp;lt;big&amp;gt;&amp;lt;big&amp;gt;&amp;lt;big&amp;gt;&#039;&#039;&#039;Obblighi di trasparenza per i fornitori e i deployers di determinati sistemi di IA&#039;&#039;&#039;&amp;lt;/big&amp;gt;&amp;lt;/big&amp;gt;&amp;lt;/big&amp;gt;&lt;br /&gt;
&lt;br /&gt;
[[Categoria:Articoli]]&lt;br /&gt;
{{DEFAULTSORT:Art.50 (Obblighi di trasparenza per i fornitori e i deployers di determinati sistemi di IA)}}&lt;br /&gt;
{{Nota_Articoli}}&lt;br /&gt;
&lt;br /&gt;
1. I fornitori garantiscono che i sistemi di IA destinati a interagire direttamente con le persone fisiche sono progettati e sviluppati in modo tale che le persone fisiche interessate siano informate del fatto di stare interagendo con un sistema di IA, a meno che ciò non risulti evidente dal punto di vista di una persona fisica ragionevolmente informata, attenta e avveduta, tenendo conto delle circostanze e del contesto di utilizzo. Tale obbligo non si applica ai sistemi di IA autorizzati dalla legge per accertare, prevenire, indagare o perseguire reati, fatte salve le tutele adeguate per i diritti e le libertà dei terzi, a meno che tali sistemi non siano a disposizione del pubblico per segnalare un reato.&amp;lt;br /&amp;gt;&lt;br /&gt;
2. I fornitori di sistemi di IA, compresi i sistemi di IA per finalità generali, che generano contenuti audio, immagine, video o testuali sintetici, garantiscono che gli output del sistema di IA siano marcati in un formato leggibile meccanicamente e rilevabili come generati o manipolati artificialmente. I fornitori garantiscono che le loro soluzioni tecniche siano efficaci, interoperabili, solide e affidabili nella misura in cui ciò sia tecnicamente possibile, tenendo conto delle specificità e dei limiti dei vari tipi di contenuti, dei costi di attuazione e dello stato dell&#039;arte generalmente riconosciuto, come eventualmente indicato nelle pertinenti norme tecniche. Tale obbligo non si applica se i sistemi di IA svolgono una funzione di assistenza per l&#039;editing standard o non modificano in modo sostanziale i dati di input forniti dal deployer o la rispettiva semantica, o se autorizzati dalla legge ad accertare, prevenire, indagare o perseguire reati.&amp;lt;br /&amp;gt;&lt;br /&gt;
3. I deployer di un sistema di riconoscimento delle emozioni o di un sistema di categorizzazione biometrica informano le persone fisiche che vi sono esposte in merito al funzionamento del sistema e trattano i dati personali in conformità dei regolamenti (UE) 2016/679 e (UE) 2018/1725 e della direttiva (UE) 2016/680, a seconda dei casi. Tale obbligo non si applica ai sistemi di IA utilizzati per la categorizzazione biometrica e il riconoscimento delle emozioni autorizzati dalla legge per accertare, prevenire o indagare reati, fatte salve le tutele adeguate per i diritti e le libertà dei terzi e conformemente al diritto dell&#039;Unione.&amp;lt;br /&amp;gt;&lt;br /&gt;
4. I deployer di un sistema di IA che genera o manipola immagini o contenuti audio o video che costituiscono un &amp;quot;deep fake&amp;quot; rendono noto che il contenuto è stato generato o manipolato artificialmente. Tale obbligo non si applica se l&#039;uso è autorizzato dalla legge per accertare, prevenire, indagare o perseguire reati. Qualora il contenuto faccia parte di un&#039;analoga opera o di un programma manifestamente artistici, creativi, satirici o fittizi, gli obblighi di trasparenza di cui al presente paragrafo si limitano all&#039;obbligo di rivelare l&#039;esistenza di tali contenuti generati o manipolati in modo adeguato, senza ostacolare l&#039;esposizione o il godimento dell&#039;opera.&amp;lt;br /&amp;gt;&lt;br /&gt;
I deployer di un sistema di IA che genera o manipola testo pubblicato allo scopo di informare il pubblico su questioni di interesse pubblico rendono noto che il testo è stato generato o manipolato artificialmente. Tale obbligo non si applica se l&#039;uso è autorizzato dalla legge per accertare, prevenire, indagare o perseguire reati o se il contenuto generato dall&#039;IA è stato sottoposto a un processo di revisione umana o di controllo editoriale e una persona fisica o giuridica detiene la responsabilità editoriale della pubblicazione del contenuto. &amp;lt;br /&amp;gt;&lt;br /&gt;
5. Le informazioni di cui ai paragrafi da 1 a 4 sono fornite alle persone fisiche interessate in maniera chiara e distinguibile al più tardi al momento della prima interazione o esposizione. Le informazioni devono essere conformi ai requisiti di accessibilità applicabili. &amp;lt;br /&amp;gt;&lt;br /&gt;
6. I paragrafi da 1 a 4 lasciano impregiudicati i requisiti e gli obblighi di cui al capo III, così come gli altri obblighi di trasparenza stabiliti dal diritto dell&#039;Unione o nazionale per i deployer dei sistemi di IA. &amp;lt;br /&amp;gt;&lt;br /&gt;
7. L&#039;ufficio per l&#039;IA incoraggia e agevola l&#039;elaborazione di codici di buone pratiche a livello dell&#039;Unione per facilitare l&#039;efficace attuazione degli obblighi relativi alla rilevazione e all&#039;etichettatura dei contenuti generati o manipolati artificialmente. La Commissione può adottare atti di esecuzione per approvare tali codici di buone pratiche secondo la procedura di cui all&#039;[[Art.56|articolo 56, paragrafo 6]]. Se ritiene che il codice non sia adeguato, la Commissione può adottare un atto di esecuzione che specifichi norme comuni per l&#039;attuazione di tali obblighi secondo la procedura d&#039;esame di cui all&#039;[[Art.98|articolo 98, paragrafo 2]].&lt;br /&gt;
&lt;br /&gt;
&amp;lt;br /&amp;gt;&lt;br /&gt;
&amp;lt;div style=&amp;quot;border: 1px solid #8d8d8d; background: #dcdcdc; display: flex; padding: .5rem 1rem; max-width: 100%;margin: 1rem auto&amp;quot;&amp;gt;&lt;br /&gt;
  &amp;lt;div style=&amp;quot;margin-right:1rem&amp;quot;&amp;gt;[[File:Octicons-file-text.svg|30px]]&amp;lt;/div&amp;gt;&lt;br /&gt;
  &amp;lt;div style=&amp;quot;width:100%&amp;quot;&amp;gt;&lt;br /&gt;
    &amp;lt;div style=&amp;quot;font-weight: bold&amp;quot;&amp;gt;&#039;&#039;&#039;CONSIDERANDO DI RIFERIMENTO&#039;&#039;&#039;&lt;br /&gt;
    {|&lt;br /&gt;
|[[C.132|Considerando &#039;&#039;&#039;132&#039;&#039;&#039;]]•||[[C.133|Considerando &#039;&#039;&#039;133&#039;&#039;&#039;]]•||[[C.134|Considerando &#039;&#039;&#039;134&#039;&#039;&#039;]]•||[[C.135|Considerando &#039;&#039;&#039;135&#039;&#039;&#039;]]•||[[C.136|Considerando &#039;&#039;&#039;136&#039;&#039;&#039;]]•||[[C.137|Considerando &#039;&#039;&#039;137&#039;&#039;&#039;]]&lt;br /&gt;
|}&amp;lt;/div&amp;gt;&lt;br /&gt;
  &amp;lt;/div&amp;gt;&lt;br /&gt;
&amp;lt;/div&amp;gt;&lt;/div&gt;</summary>
		<author><name>InsaidewikiAA</name></author>
	</entry>
	<entry>
		<id>https://www.wikiaiact.it/w139/index.php?title=Art.47&amp;diff=1052</id>
		<title>Art.47</title>
		<link rel="alternate" type="text/html" href="https://www.wikiaiact.it/w139/index.php?title=Art.47&amp;diff=1052"/>
		<updated>2024-07-08T09:37:32Z</updated>

		<summary type="html">&lt;p&gt;InsaidewikiAA: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;&amp;lt;big&amp;gt;&amp;lt;big&amp;gt;&amp;lt;big&amp;gt;&#039;&#039;&#039;Dichiarazione di conformità UE&#039;&#039;&#039;&amp;lt;/big&amp;gt;&amp;lt;/big&amp;gt;&amp;lt;/big&amp;gt;&lt;br /&gt;
&lt;br /&gt;
[[Categoria:Articoli]]&lt;br /&gt;
{{DEFAULTSORT:Art.47 (Dichiarazione di conformità UE)}}&lt;br /&gt;
{{Nota_Articoli}}&lt;br /&gt;
&lt;br /&gt;
1. Il fornitore compila una dichiarazione scritta di conformità UE leggibile meccanicamente, firmata a mano o elettronicamente, per ciascun sistema di IA ad alto rischio e la tiene a disposizione delle autorità nazionali competenti per dieci anni dalla data in cui il sistema di IA ad alto rischio è stato immesso sul mercato o messo in servizio. La dichiarazione di conformità UE identifica il sistema di IA ad alto rischio per il quale è stata redatta. Su richiesta, una copia della dichiarazione di conformità UE è presentata alle pertinenti autorità nazionali competenti.&amp;lt;br /&amp;gt;&lt;br /&gt;
2. La dichiarazione di conformità UE attesta che il sistema di IA ad alto rischio interessato soddisfa i requisiti di cui alla sezione 2. La dichiarazione di conformità UE riporta le informazioni di cui all&#039;[[Allegato V|allegato V]] ed è tradotta in una lingua che può essere facilmente compresa dalle autorità nazionali competenti degli Stati membri nei quali il sistema di IA ad alto rischio è immesso sul mercato o messo a disposizione.&amp;lt;br /&amp;gt;&lt;br /&gt;
3. Qualora i sistemi di IA ad alto rischio siano soggetti ad altra normativa di armonizzazione dell&#039;Unione che richieda anch&#039;essa una dichiarazione di conformità UE, è redatta un&#039;unica dichiarazione di conformità UE in relazione a tutte le normative dell&#039;Unione applicabili al sistema di IA ad alto rischio. La dichiarazione contiene tutte le informazioni necessarie per identificare la normativa di armonizzazione dell&#039;Unione cui si riferisce la dichiarazione.&amp;lt;br /&amp;gt;&lt;br /&gt;
4. Redigendo la dichiarazione di conformità UE, il fornitore si assume la responsabilità della conformità ai requisiti di cui alla sezione 2. Il fornitore tiene opportunamente aggiornata la dichiarazione di conformità UE.&amp;lt;br /&amp;gt;&lt;br /&gt;
5. Alla Commissione è conferito il potere di adottare atti delegati conformemente all&#039;[[Art.97|articolo 97]] al fine di modificare l’allegato V aggiornando il contenuto della dichiarazione di conformità UE di cui a tale allegato per introdurre elementi che si rendano necessari alla luce del progresso tecnico.&lt;br /&gt;
&lt;br /&gt;
&amp;lt;br /&amp;gt;&lt;br /&gt;
&amp;lt;div style=&amp;quot;border: 1px solid #8d8d8d; background: #dcdcdc; display: flex; padding: .5rem 1rem; max-width: 100%;margin: 1rem auto&amp;quot;&amp;gt;&lt;br /&gt;
  &amp;lt;div style=&amp;quot;margin-right:1rem&amp;quot;&amp;gt;[[File:Octicons-file-text.svg|30px]]&amp;lt;/div&amp;gt;&lt;br /&gt;
  &amp;lt;div style=&amp;quot;width:100%&amp;quot;&amp;gt;&lt;br /&gt;
    &amp;lt;div style=&amp;quot;font-weight: bold&amp;quot;&amp;gt;&#039;&#039;&#039;CONSIDERANDO DI RIFERIMENTO&#039;&#039;&#039;&lt;br /&gt;
    {|&lt;br /&gt;
|[[C.1|Considerando &#039;&#039;&#039;1&#039;&#039;&#039;]]•||[[C.121|Considerando &#039;&#039;&#039;121&#039;&#039;&#039;]]•||[[C.173|Considerando &#039;&#039;&#039;173&#039;&#039;&#039;]]&lt;br /&gt;
|}&amp;lt;/div&amp;gt;&lt;br /&gt;
  &amp;lt;/div&amp;gt;&lt;br /&gt;
&amp;lt;/div&amp;gt;&lt;/div&gt;</summary>
		<author><name>InsaidewikiAA</name></author>
	</entry>
	<entry>
		<id>https://www.wikiaiact.it/w139/index.php?title=Art.47&amp;diff=1051</id>
		<title>Art.47</title>
		<link rel="alternate" type="text/html" href="https://www.wikiaiact.it/w139/index.php?title=Art.47&amp;diff=1051"/>
		<updated>2024-07-08T09:35:43Z</updated>

		<summary type="html">&lt;p&gt;InsaidewikiAA: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;&amp;lt;big&amp;gt;&amp;lt;big&amp;gt;&amp;lt;big&amp;gt;&#039;&#039;&#039;Dichiarazione di conformità UE&#039;&#039;&#039;&amp;lt;/big&amp;gt;&amp;lt;/big&amp;gt;&amp;lt;/big&amp;gt;&lt;br /&gt;
&lt;br /&gt;
[[Categoria:Articoli]]&lt;br /&gt;
{{DEFAULTSORT:Art.47 (Dichiarazione di conformità UE)}}&lt;br /&gt;
{{Nota_Articoli}}&lt;br /&gt;
&lt;br /&gt;
1. Il fornitore compila una dichiarazione scritta di conformità UE leggibile meccanicamente, firmata a mano o elettronicamente, per ciascun sistema di IA ad alto rischio e la tiene a disposizione delle autorità nazionali competenti per dieci anni dalla data in cui il sistema di IA ad alto rischio è stato immesso sul mercato o messo in servizio. La dichiarazione di conformità UE identifica il sistema di IA ad alto rischio per il quale è stata redatta. Su richiesta, una copia della dichiarazione di conformità UE è presentata alle pertinenti autorità nazionali competenti.&amp;lt;br /&amp;gt;&lt;br /&gt;
2. La dichiarazione di conformità UE attesta che il sistema di IA ad alto rischio interessato soddisfa i requisiti di cui alla sezione 2. La dichiarazione di conformità UE riporta le informazioni di cui all&#039;[[Allegato V|allegato V]] ed è tradotta in una lingua che può essere facilmente compresa dalle autorità nazionali competenti degli Stati membri nei quali il sistema di IA ad alto rischio è immesso sul mercato o messo a disposizione.&amp;lt;br /&amp;gt;&lt;br /&gt;
3. Qualora i sistemi di IA ad alto rischio siano soggetti ad altra normativa di armonizzazione dell&#039;Unione che richieda anch&#039;essa una dichiarazione di conformità UE, è redatta un&#039;unica dichiarazione di conformità UE in relazione a tutte le normative dell&#039;Unione applicabili al sistema di IA ad alto rischio. La dichiarazione contiene tutte le informazioni necessarie per identificare la normativa di armonizzazione dell&#039;Unione cui si riferisce la dichiarazione.&amp;lt;br /&amp;gt;&lt;br /&gt;
4. Redigendo la dichiarazione di conformità UE, il fornitore si assume la responsabilità della conformità ai requisiti di cui alla sezione 2. Il fornitore tiene opportunamente aggiornata la dichiarazione di conformità UE.&amp;lt;br /&amp;gt;&lt;br /&gt;
5. Alla Commissione è conferito il potere di adottare atti delegati conformemente all&#039;[[Art.97|articolo 97]] al fine di modificare l’allegato V aggiornando il contenuto della dichiarazione di conformità UE di cui a tale allegato per introdurre elementi che si rendano necessari alla luce del progresso tecnico.&lt;/div&gt;</summary>
		<author><name>InsaidewikiAA</name></author>
	</entry>
	<entry>
		<id>https://www.wikiaiact.it/w139/index.php?title=Art.46&amp;diff=1050</id>
		<title>Art.46</title>
		<link rel="alternate" type="text/html" href="https://www.wikiaiact.it/w139/index.php?title=Art.46&amp;diff=1050"/>
		<updated>2024-07-08T09:33:59Z</updated>

		<summary type="html">&lt;p&gt;InsaidewikiAA: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;&amp;lt;big&amp;gt;&amp;lt;big&amp;gt;&amp;lt;big&amp;gt;&#039;&#039;&#039;Deroga alla procedura di valutazione della conformità&#039;&#039;&#039;&amp;lt;/big&amp;gt;&amp;lt;/big&amp;gt;&amp;lt;/big&amp;gt;&lt;br /&gt;
&lt;br /&gt;
[[Categoria:Articoli]]&lt;br /&gt;
{{DEFAULTSORT:Art.46 (Deroga alla procedura di valutazione della conformità)}}&lt;br /&gt;
{{Nota_Articoli}}&lt;br /&gt;
&lt;br /&gt;
1. In deroga all&#039;[[Art.43|articolo 43]] e su richiesta debitamente giustificata, qualsiasi autorità di vigilanza del mercato può autorizzare l&#039;immissione sul mercato o la messa in servizio di specifici sistemi di IA ad alto rischio nel territorio dello Stato membro interessato, per motivi eccezionali di sicurezza pubblica o di protezione della vita e della salute delle persone e di protezione dell&#039;ambiente o dei principali beni industriali e infrastrutturali. Tale autorizzazione è valida per un periodo limitato, mentre sono in corso le necessarie procedure di valutazione della conformità, tenendo conto dei motivi eccezionali che giustificano la deroga. Il completamento di tali procedure è effettuato senza indebito ritardo. &amp;lt;br /&amp;gt;&lt;br /&gt;
2. In una situazione di urgenza debitamente giustificata per motivi eccezionali di sicurezza pubblica o in caso di minaccia specifica, sostanziale e imminente per la vita o l&#039;incolumità fisica delle persone fisiche, le autorità di contrasto o le autorità di protezione civile possono mettere in servizio uno specifico sistema di IA ad alto rischio senza l&#039;autorizzazione di cui al paragrafo 1, a condizione che tale autorizzazione sia richiesta durante o dopo l&#039;uso senza indebito ritardo. Se l&#039;autorizzazione di cui al paragrafo 1 è rifiutata, l&#039;uso del sistema di IA ad alto rischio è interrotto con effetto immediato e tutti i risultati e gli output di tale uso sono immediatamente eliminati. &amp;lt;br /&amp;gt;&lt;br /&gt;
3. L&#039;autorizzazione di cui al paragrafo 1 è rilasciata solo se l&#039;autorità di vigilanza del mercato conclude che il sistema di IA ad alto rischio è conforme ai requisiti di cui alla sezione 2. L&#039;autorità di vigilanza del mercato informa la Commissione e gli altri Stati membri di eventuali autorizzazioni rilasciate a norma dei paragrafi 1 e 2. Tale obbligo non riguarda i dati operativi sensibili in relazione alle attività delle autorità di contrasto. &amp;lt;br /&amp;gt;&lt;br /&gt;
4. Se, entro 15 giorni di calendario dal ricevimento dell&#039;informazione di cui al paragrafo 3, né gli Stati membri né la Commissione sollevano obiezioni in merito a un&#039;autorizzazione rilasciata da un&#039;autorità di vigilanza del mercato di uno Stato membro in conformità del paragrafo 1, tale autorizzazione è considerata giustificata.  &amp;lt;br /&amp;gt;&lt;br /&gt;
5. Se, entro 15 giorni di calendario dal ricevimento della notifica di cui al paragrafo 3, uno Stato membro solleva obiezioni in merito a un&#039;autorizzazione rilasciata da un&#039;autorità di vigilanza del mercato di un altro Stato membro, o se la Commissione ritiene che l&#039;autorizzazione sia contraria al diritto dell&#039;Unione o che la conclusione degli Stati membri riguardante la conformità del sistema di cui al paragrafo 3 sia infondata, la Commissione avvia senza ritardo consultazioni con lo Stato membro interessato. Gli operatori interessati sono consultati e hanno la possibilità di esprimere il loro parere. Tenuto conto di ciò, la Commissione decide se l&#039;autorizzazione è giustificata. La Commissione trasmette la propria decisione allo Stato membro interessato e agli operatori pertinenti. &amp;lt;br /&amp;gt;&lt;br /&gt;
6. Se la Commissione ritiene l&#039;autorizzazione ingiustificata, essa è ritirata dall&#039;autorità di vigilanza del mercato dello Stato membro interessato. &amp;lt;br /&amp;gt;&lt;br /&gt;
7. Per i sistemi di IA ad alto rischio relativi a prodotti disciplinati dalla normativa di armonizzazione dell&#039;Unione elencata nell&#039;[[Allegato I|allegato I, sezione A]], si applicano solo le deroghe alla valutazione della conformità stabilite in tale normativa di armonizzazione dell&#039;Unione.&lt;br /&gt;
&lt;br /&gt;
&amp;lt;br /&amp;gt;&lt;br /&gt;
&amp;lt;div style=&amp;quot;border: 1px solid #8d8d8d; background: #dcdcdc; display: flex; padding: .5rem 1rem; max-width: 100%;margin: 1rem auto&amp;quot;&amp;gt;&lt;br /&gt;
  &amp;lt;div style=&amp;quot;margin-right:1rem&amp;quot;&amp;gt;[[File:Octicons-file-text.svg|30px]]&amp;lt;/div&amp;gt;&lt;br /&gt;
  &amp;lt;div style=&amp;quot;width:100%&amp;quot;&amp;gt;&lt;br /&gt;
    &amp;lt;div style=&amp;quot;font-weight: bold&amp;quot;&amp;gt;&#039;&#039;&#039;CONSIDERANDO DI RIFERIMENTO&#039;&#039;&#039;&lt;br /&gt;
    {|&lt;br /&gt;
|[[C.130|Considerando &#039;&#039;&#039;130&#039;&#039;&#039;]]&lt;br /&gt;
|}&amp;lt;/div&amp;gt;&lt;br /&gt;
  &amp;lt;/div&amp;gt;&lt;br /&gt;
&amp;lt;/div&amp;gt;&lt;/div&gt;</summary>
		<author><name>InsaidewikiAA</name></author>
	</entry>
	<entry>
		<id>https://www.wikiaiact.it/w139/index.php?title=Art.42&amp;diff=1049</id>
		<title>Art.42</title>
		<link rel="alternate" type="text/html" href="https://www.wikiaiact.it/w139/index.php?title=Art.42&amp;diff=1049"/>
		<updated>2024-07-08T09:25:01Z</updated>

		<summary type="html">&lt;p&gt;InsaidewikiAA: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;&amp;lt;big&amp;gt;&amp;lt;big&amp;gt;&amp;lt;big&amp;gt;&#039;&#039;&#039;Presunzione di conformità a determinati requisiti&#039;&#039;&#039;&amp;lt;/big&amp;gt;&amp;lt;/big&amp;gt;&amp;lt;/big&amp;gt;&lt;br /&gt;
[[Categoria:Articoli]]&lt;br /&gt;
{{DEFAULTSORT:Art.42 (Presunzione di conformità a determinati requisiti)}}&lt;br /&gt;
{{Nota_Articoli}}&lt;br /&gt;
&lt;br /&gt;
1. I sistemi di IA ad alto rischio che sono stati addestrati e sottoposti a prova con dati che rispecchiano il contesto geografico, comportamentale, contestuale o funzionale specifico all&#039;interno del quale sono destinati a essere usati si presumono conformi ai pertinenti requisiti di cui all&#039;[[Art.10|articolo 10, paragrafo 4]].&lt;br /&gt;
&lt;br /&gt;
2. I sistemi di IA ad alto rischio che sono stati certificati o per i quali è stata rilasciata una dichiarazione di conformità nell&#039;ambito di un sistema di cibersicurezza a norma del regolamento (UE) 2019/881 e i cui riferimenti sono stati pubblicati nella Gazzetta ufficiale dell&#039;Unione europea si presumono conformi ai requisiti di cibersicurezza di cui all&#039;[[Art.15|articolo 15]] del presente regolamento, nella misura in cui tali requisiti siano contemplati nel certificato di cibersicurezza o nella dichiarazione di conformità o in parti di essi.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&amp;lt;br /&amp;gt;&lt;br /&gt;
&amp;lt;div style=&amp;quot;border: 1px solid #8d8d8d; background: #dcdcdc; display: flex; padding: .5rem 1rem; max-width: 100%;margin: 1rem auto&amp;quot;&amp;gt;&lt;br /&gt;
  &amp;lt;div style=&amp;quot;margin-right:1rem&amp;quot;&amp;gt;[[File:Octicons-file-text.svg|30px]]&amp;lt;/div&amp;gt;&lt;br /&gt;
  &amp;lt;div style=&amp;quot;width:100%&amp;quot;&amp;gt;&lt;br /&gt;
    &amp;lt;div style=&amp;quot;font-weight: bold&amp;quot;&amp;gt;&#039;&#039;&#039;CONSIDERANDO DI RIFERIMENTO&#039;&#039;&#039;&lt;br /&gt;
    {|&lt;br /&gt;
|[[C.77|Considerando &#039;&#039;&#039;77&#039;&#039;&#039;]]•||[[C.78|Considerando &#039;&#039;&#039;78&#039;&#039;&#039;]]•||[[C.122|Considerando &#039;&#039;&#039;122&#039;&#039;&#039;]]&lt;br /&gt;
|}&amp;lt;/div&amp;gt;&lt;br /&gt;
  &amp;lt;/div&amp;gt;&lt;br /&gt;
&amp;lt;/div&amp;gt;&lt;/div&gt;</summary>
		<author><name>InsaidewikiAA</name></author>
	</entry>
	<entry>
		<id>https://www.wikiaiact.it/w139/index.php?title=Art.41&amp;diff=1048</id>
		<title>Art.41</title>
		<link rel="alternate" type="text/html" href="https://www.wikiaiact.it/w139/index.php?title=Art.41&amp;diff=1048"/>
		<updated>2024-07-08T09:23:25Z</updated>

		<summary type="html">&lt;p&gt;InsaidewikiAA: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;&amp;lt;big&amp;gt;&amp;lt;big&amp;gt;&amp;lt;big&amp;gt;&#039;&#039;&#039;Specifiche comuni&#039;&#039;&#039;&amp;lt;/big&amp;gt;&amp;lt;/big&amp;gt;&amp;lt;/big&amp;gt;&lt;br /&gt;
[[Categoria:Articoli]]&lt;br /&gt;
{{DEFAULTSORT:Art.41 (Specifiche comuni)}}&lt;br /&gt;
{{Nota_Articoli}}&lt;br /&gt;
&lt;br /&gt;
1. La Commissione può adottare atti di esecuzione che stabiliscano specifiche comuni per i requisiti di cui alla sezione 2 del presente capo o, se del caso, per gli obblighi di cui al capo V, sezioni 2 e 3, se sono soddisfatte le condizioni seguenti:&lt;br /&gt;
:a) a norma dell&#039;articolo 10, paragrafo 1, del regolamento (UE) n. 1025/2012, la Commissione ha chiesto a una o più organizzazioni europee di normazione di elaborare una norma armonizzata per i requisiti di cui alla sezione 2 del presente capo, o ove applicabile, per gli obblighi di cui al capo V, sezioni 2 e 3, e:&lt;br /&gt;
::i) la richiesta non è stata accettata da nessuna delle organizzazioni europee di normazione; o&lt;br /&gt;
::ii) le norme armonizzate relative a tale richiesta non vengono presentate entro il termine fissato a norma dell&#039;articolo 10, paragrafo 1, del regolamento (UE) n. 1025/2012; o &lt;br /&gt;
::iii) le pertinenti norme armonizzate non tengono sufficientemente conto delle preoccupazioni in materia di diritti fondamentali; o&lt;br /&gt;
::iv) le norme armonizzate non sono conformi alla richiesta; e&lt;br /&gt;
:b) nessun riferimento a norme armonizzate, che contemplino i requisiti di cui alla sezione 2 del presente capo o, ove applicabile, gli obblighi di cui al capo V, sezioni 2 e 3, è stato pubblicato nella Gazzetta ufficiale dell&#039;Unione europea conformemente al regolamento (UE) n. 1025/2012 e non si prevede che un tale riferimento sia pubblicato entro un termine ragionevole.&lt;br /&gt;
Nel redigere le specifiche comuni, la Commissione consulta il forum consultivo di cui all&#039;[[Art.67|articolo 67]].&lt;br /&gt;
Gli atti di esecuzione di cui al primo comma sono adottati secondo la procedura d&#039;esame di cui all&#039;[[Art.98|articolo 98, paragrafo 2]].&lt;br /&gt;
&lt;br /&gt;
2. Prima di preparare un progetto di atto di esecuzione, la Commissione informa il comitato di cui all&#039;articolo 22 del regolamento (UE) n. 1025/2012 del fatto che ritiene soddisfatte le condizioni di cui al paragrafo 1 del presente articolo.&lt;br /&gt;
&lt;br /&gt;
3. I sistemi di IA ad alto rischio o i modelli di IA per finalità generali conformi alle specifiche comuni di cui al paragrafo 1, o a parti di tali specifiche, si presumono conformi ai requisiti di cui alla sezione 2 del presente capo o, ove applicabile, agli obblighi di cui al capo V, sezioni 2 e 3 nella misura in cui tali requisiti o tali obblighi sono contemplati da tali specifiche comuni.&lt;br /&gt;
&lt;br /&gt;
4. Qualora una norma armonizzata sia adottata da un organismo europeo di normazione e proposta alla Commissione per la pubblicazione del suo riferimento nella Gazzetta ufficiale dell&#039;Unione europea, la Commissione valuta la norma armonizzata conformemente al regolamento (UE) n. 1025/2012. Quando un riferimento a una norma armonizzata è pubblicato nella Gazzetta ufficiale dell&#039;Unione europea, la Commissione abroga gli atti di esecuzione di cui al paragrafo 1 o le parti di tali atti che riguardano gli stessi requisiti di cui alla sezione 2 del presente capo o, ove applicabile, gli obblighi di&lt;br /&gt;
cui al capo V, sezioni 2 e 3.&lt;br /&gt;
&lt;br /&gt;
5. Qualora non rispettino le specifiche comuni di cui al paragrafo 1, i fornitori di sistemi di IA ad alto rischio o di modelli di IA per finalità generali adottano soluzioni tecniche debitamente motivate che soddisfano i requisiti di cui alla sezione 2 del presente capo o, ove applicabile, gli obblighi di cui al capo V, sezioni 2 e 3, a un livello almeno equivalente.&lt;br /&gt;
&lt;br /&gt;
6. Se uno Stato membro ritiene che una specifica comune non soddisfi interamente i requisiti di cui alla sezione 2 o, ove applicabile, non rispetti gli obblighi di cui al capo V, sezioni 2 e 3, ne informa la Commissione fornendo una spiegazione dettagliata. La Commissione valuta tali informazioni e, ove necessario, modifica l&#039;atto di esecuzione che stabilisce la specifica comune interessata.&lt;br /&gt;
&lt;br /&gt;
&amp;lt;br /&amp;gt;&lt;br /&gt;
&amp;lt;div style=&amp;quot;border: 1px solid #8d8d8d; background: #dcdcdc; display: flex; padding: .5rem 1rem; max-width: 100%;margin: 1rem auto&amp;quot;&amp;gt;&lt;br /&gt;
  &amp;lt;div style=&amp;quot;margin-right:1rem&amp;quot;&amp;gt;[[File:Octicons-file-text.svg|30px]]&amp;lt;/div&amp;gt;&lt;br /&gt;
  &amp;lt;div style=&amp;quot;width:100%&amp;quot;&amp;gt;&lt;br /&gt;
    &amp;lt;div style=&amp;quot;font-weight: bold&amp;quot;&amp;gt;&#039;&#039;&#039;CONSIDERANDO DI RIFERIMENTO&#039;&#039;&#039;&lt;br /&gt;
    {|&lt;br /&gt;
|[[C.121|Considerando &#039;&#039;&#039;121&#039;&#039;&#039;]]&lt;br /&gt;
|}&amp;lt;/div&amp;gt;&lt;br /&gt;
  &amp;lt;/div&amp;gt;&lt;br /&gt;
&amp;lt;/div&amp;gt;&lt;/div&gt;</summary>
		<author><name>InsaidewikiAA</name></author>
	</entry>
	<entry>
		<id>https://www.wikiaiact.it/w139/index.php?title=Art.40&amp;diff=1047</id>
		<title>Art.40</title>
		<link rel="alternate" type="text/html" href="https://www.wikiaiact.it/w139/index.php?title=Art.40&amp;diff=1047"/>
		<updated>2024-07-08T09:22:26Z</updated>

		<summary type="html">&lt;p&gt;InsaidewikiAA: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;&amp;lt;big&amp;gt;&amp;lt;big&amp;gt;&amp;lt;big&amp;gt;&#039;&#039;&#039;Norme armonizzate e prodotti della normazione&#039;&#039;&#039;&amp;lt;/big&amp;gt;&amp;lt;/big&amp;gt;&amp;lt;/big&amp;gt;&lt;br /&gt;
[[Categoria:Articoli]]&lt;br /&gt;
{{DEFAULTSORT:Art.40 (Norme armonizzate e prodotti della normazione)}}&lt;br /&gt;
{{Nota_Articoli}}&lt;br /&gt;
&lt;br /&gt;
1. I sistemi di IA ad alto rischio o i modelli di IA per finalità generali che sono conformi alle norme armonizzate o a parti di esse i cui riferimenti sono stati pubblicati nella Gazzetta ufficiale dell&#039;Unione europea conformemente al regolamento (UE) n. 1025/2012 si presumono conformi ai requisiti di cui alla sezione 2 del presente capo o, se del caso, agli obblighi di cui al capo V, sezioni 2 e 3, del presente regolamento, nella misura in cui tali requisiti o obblighi sono contemplati da tali norme.&lt;br /&gt;
&lt;br /&gt;
2. In conformità dell’articolo 10 del regolamento (UE) n. 1025/2012, la Commissione presenta senza indebito ritardo richieste di normazione riguardanti tutti i requisiti di cui alla sezione 2 del presente capo e, se del caso, richieste di normazione riguardanti gli obblighi di cui al capo V, sezioni 2 e 3, del presente regolamento. La richiesta di normazione chiede inoltre prodotti relativi a processi di comunicazione e documentazione intesi a migliorare le prestazioni dei sistemi di IA in termini di risorse, come la riduzione del consumo di energia e di altre risorse del sistema di IA ad alto rischio durante il suo ciclo di vita, e allo sviluppo efficiente sotto il profilo energetico dei modelli di IA per finalità generali. Nel preparare una richiesta di normazione, la Commissione consulta il comitato e i pertinenti portatori di interessi, compreso il forum consultivo.&lt;br /&gt;
Nel presentare una richiesta di normazione alle organizzazioni europee di normazione, la Commissione specifica che le norme devono essere chiare, coerenti, anche con le norme elaborate nei vari settori per i prodotti disciplinati dalla vigente normativa di armonizzazione dell&#039;Unione elencata nell&#039;[[Allegato I|allegato I]], e volte a garantire che i sistemi di IA ad alto rischio o i modelli di IA per finalità generali immessi sul mercato o messi in servizio nell&#039;Unione soddisfino i pertinenti requisiti od obblighi di cui al presente regolamento. La Commissione chiede alle organizzazioni europee di normazione di dimostrare che si adoperano al massimo per conseguire gli obiettivi di cui al primo e al secondo comma del presente paragrafo conformemente all&#039;articolo 24 del regolamento (UE) n. 1025/2012.&lt;br /&gt;
&lt;br /&gt;
3. I partecipanti al processo di normazione cercano di promuovere gli investimenti e l&#039;innovazione nell&#039;IA, anche mediante una maggiore certezza del diritto, nonché la competitività e la crescita del mercato dell&#039;Unione, di contribuire a rafforzare la cooperazione globale in materia di normazione e a tener conto delle norme internazionali esistenti nel settore dell&#039;IA che sono coerenti con i valori, i diritti fondamentali e gli interessi dell&#039;Unione, e di rafforzare la governance multipartecipativa garantendo una rappresentanza equilibrata degli interessi e l&#039;effettiva partecipazione di tutti i portatori di interessi pertinenti conformemente agli articoli 5, 6 e 7 del regolamento (UE) n. 1025/2012.&lt;br /&gt;
&lt;br /&gt;
&amp;lt;br /&amp;gt;&lt;br /&gt;
&amp;lt;div style=&amp;quot;border: 1px solid #8d8d8d; background: #dcdcdc; display: flex; padding: .5rem 1rem; max-width: 100%;margin: 1rem auto&amp;quot;&amp;gt;&lt;br /&gt;
  &amp;lt;div style=&amp;quot;margin-right:1rem&amp;quot;&amp;gt;[[File:Octicons-file-text.svg|30px]]&amp;lt;/div&amp;gt;&lt;br /&gt;
  &amp;lt;div style=&amp;quot;width:100%&amp;quot;&amp;gt;&lt;br /&gt;
    &amp;lt;div style=&amp;quot;font-weight: bold&amp;quot;&amp;gt;&#039;&#039;&#039;CONSIDERANDO DI RIFERIMENTO&#039;&#039;&#039;&lt;br /&gt;
    {|&lt;br /&gt;
|[[C.121|Considerando &#039;&#039;&#039;121&#039;&#039;&#039;]]&lt;br /&gt;
|}&amp;lt;/div&amp;gt;&lt;br /&gt;
  &amp;lt;/div&amp;gt;&lt;br /&gt;
&amp;lt;/div&amp;gt;&lt;/div&gt;</summary>
		<author><name>InsaidewikiAA</name></author>
	</entry>
	<entry>
		<id>https://www.wikiaiact.it/w139/index.php?title=Art.39&amp;diff=1046</id>
		<title>Art.39</title>
		<link rel="alternate" type="text/html" href="https://www.wikiaiact.it/w139/index.php?title=Art.39&amp;diff=1046"/>
		<updated>2024-07-08T09:21:26Z</updated>

		<summary type="html">&lt;p&gt;InsaidewikiAA: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;&amp;lt;big&amp;gt;&amp;lt;big&amp;gt;&amp;lt;big&amp;gt;&#039;&#039;&#039;Organismi di valutazione della conformità di paesi terzi&#039;&#039;&#039;&amp;lt;/big&amp;gt;&amp;lt;/big&amp;gt;&amp;lt;/big&amp;gt;&lt;br /&gt;
[[Categoria:Articoli]]&lt;br /&gt;
{{DEFAULTSORT:Art.39 (Organismi di valutazione della conformità di paesi terzi)}}&lt;br /&gt;
{{Nota_Articoli}}&lt;br /&gt;
&lt;br /&gt;
Gli organismi di valutazione della conformità istituiti a norma del diritto di un paese terzo con il quale l&#039;Unione ha concluso un accordo possono essere autorizzati a svolgere le attività degli organismi notificati a norma del presente regolamento, a condizione che soddisfino i requisiti stabiliti all&#039;[[Art.31|articolo 31]] o garantiscano un livello di conformità equivalente.&lt;br /&gt;
&lt;br /&gt;
&amp;lt;br /&amp;gt;&lt;br /&gt;
&amp;lt;div style=&amp;quot;border: 1px solid #8d8d8d; background: #dcdcdc; display: flex; padding: .5rem 1rem; max-width: 100%;margin: 1rem auto&amp;quot;&amp;gt;&lt;br /&gt;
  &amp;lt;div style=&amp;quot;margin-right:1rem&amp;quot;&amp;gt;[[File:Octicons-file-text.svg|30px]]&amp;lt;/div&amp;gt;&lt;br /&gt;
  &amp;lt;div style=&amp;quot;width:100%&amp;quot;&amp;gt;&lt;br /&gt;
    &amp;lt;div style=&amp;quot;font-weight: bold&amp;quot;&amp;gt;&#039;&#039;&#039;CONSIDERANDO DI RIFERIMENTO&#039;&#039;&#039;&lt;br /&gt;
    {|&lt;br /&gt;
|[[C.127|Considerando &#039;&#039;&#039;127&#039;&#039;&#039;]]&lt;br /&gt;
|}&amp;lt;/div&amp;gt;&lt;br /&gt;
  &amp;lt;/div&amp;gt;&lt;br /&gt;
&amp;lt;/div&amp;gt;&lt;/div&gt;</summary>
		<author><name>InsaidewikiAA</name></author>
	</entry>
	<entry>
		<id>https://www.wikiaiact.it/w139/index.php?title=Art.43&amp;diff=1045</id>
		<title>Art.43</title>
		<link rel="alternate" type="text/html" href="https://www.wikiaiact.it/w139/index.php?title=Art.43&amp;diff=1045"/>
		<updated>2024-07-08T08:59:19Z</updated>

		<summary type="html">&lt;p&gt;InsaidewikiAA: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;&amp;lt;big&amp;gt;&amp;lt;big&amp;gt;&amp;lt;big&amp;gt;&#039;&#039;&#039;Valutazione della conformità&#039;&#039;&#039;&amp;lt;/big&amp;gt;&amp;lt;/big&amp;gt;&amp;lt;/big&amp;gt;&lt;br /&gt;
[[Categoria:Articoli]]&lt;br /&gt;
{{DEFAULTSORT:Art.43 (Valutazione della conformità)}}&lt;br /&gt;
{{Nota_Articoli}}&lt;br /&gt;
&lt;br /&gt;
1. Per i sistemi di IA ad alto rischio elencati nell&#039;[[Allegato III|allegato III]], punto 1, se ha applicato le norme armonizzate di cui all&#039;[[Art.40|articolo 40]] o, ove applicabile, le specifiche comuni di cui all&#039;[[Art.41|articolo 41]], nel dimostrare la conformità di un sistema di IA ad alto rischio ai requisiti di cui alla sezione 2, il fornitore sceglie una delle seguenti procedure di valutazione della conformità basate sugli elementi qui di seguito:&lt;br /&gt;
:a) il controllo interno di cui all&#039;[[Allegato VI|allegato VI]]; oppure&lt;br /&gt;
:b) la valutazione del sistema di gestione della qualità e la valutazione della documentazione tecnica, con il coinvolgimento di un organismo notificato, di cui all&#039;[[Allegato VII|allegato VII]]. &lt;br /&gt;
Nel dimostrare la conformità di un sistema di IA ad alto rischio ai requisiti di cui alla sezione 2, il fornitore segue la procedura di valutazione della conformità di cui all&#039;[[Allegato VII|allegato VII]] se: &lt;br /&gt;
:a) non esistono le norme armonizzate di cui all&#039;articolo 40 e non sono disponibili le specifiche comuni di cui all&#039;[[Art.41|articolo 41]];&lt;br /&gt;
:b) il fornitore non ha applicato la norma armonizzata o ne ha applicato solo una parte;&lt;br /&gt;
:c) esistono le specifiche comuni di cui alla lettera a), ma il fornitore non le ha applicate;&lt;br /&gt;
:d) una o più norme armonizzate di cui alla lettera a) sono state pubblicate con una limitazione e soltanto sulla parte della norma che è oggetto di limitazione.&lt;br /&gt;
Ai fini della procedura di valutazione della conformità di cui all&#039;[[Allegato VII|allegato VII]], il fornitore può scegliere uno qualsiasi degli organismi notificati. Tuttavia, se il sistema di IA ad alto rischio è destinato ad essere messo in servizio dalle autorità competenti in materia di contrasto, di immigrazione o di asilo, nonché da istituzioni, organi o organismi dell&#039;Unione, l&#039;autorità di vigilanza del mercato di cui all&#039;[[Art.74|articolo 74, paragrafo 8 o 9]], a seconda dei casi, agisce in qualità di organismo notificato. &lt;br /&gt;
&lt;br /&gt;
2. Per i sistemi di IA ad alto rischio di cui all&#039;[[Allegato III|allegato III, punti da 2 a 8]], i fornitori seguono la procedura di valutazione della conformità basata sul controllo interno di cui all&#039;[[Allegato VI|allegato VI]], che non prevede il coinvolgimento di un organismo notificato. &lt;br /&gt;
&lt;br /&gt;
3. Per i sistemi di IA ad alto rischio disciplinati dalla normativa di armonizzazione dell&#039;Unione elencata nell&#039;[[Allegato I|allegato I, sezione A]], il fornitore segue la pertinente procedura di valutazione della conformità prevista da tali atti giuridici. I requisiti di cui alla sezione 2 del presente capo si applicano a tali sistemi di IA ad alto rischio e fanno parte di tale valutazione. Si applicano anche i punti 4.3, 4.4, 4.5 e il punto 4.6, quinto comma, dell&#039;[[Allegato VII|allegato VII]].&lt;br /&gt;
Ai fini di tale valutazione, gli organismi notificati che sono stati notificati a norma di tali atti giuridici hanno la facoltà di controllare la conformità dei sistemi di IA ad alto rischio ai requisiti di cui alla sezione 2, a condizione che la conformità di tali organismi notificati ai requisiti di cui all&#039;[[Art.31|articolo 31, paragrafi 4, 10 e 11]], sia stata valutata nel contesto della procedura di notifica a norma di tali atti giuridici.&lt;br /&gt;
Qualora un atto giuridico elencato nell&#039;[[Allegato I|allegato I, sezione A]], consenta al fabbricante del prodotto di sottrarsi a una valutazione della conformità da parte di terzi, purché abbia applicato tutte le norme armonizzate che contemplano tutti i requisiti pertinenti, tale fabbricante può avvalersi di tale facoltà solo se ha applicato anche le norme armonizzate o, ove applicabili, le specifiche comuni di cui all&#039;[[Art.41|articolo 41]], che contemplano tutti i requisiti di cui alla sezione 2 del presente capo. &lt;br /&gt;
&lt;br /&gt;
4. I sistemi di IA ad alto rischio che sono già stati oggetto di una procedura di valutazione della conformità sono sottoposti a una nuova procedura di valutazione della conformità nel caso di una modifica sostanziale, indipendentemente dal fatto che il sistema modificato sia destinato a essere ulteriormente distribuito o continui a essere usato dal deployer attuale.&lt;br /&gt;
Per i sistemi di IA ad alto rischio che proseguono il loro apprendimento dopo essere stati immessi sul mercato o messi in servizio, le modifiche apportate al sistema di IA ad alto rischio e alle sue prestazioni che sono state predeterminate dal fornitore al momento della valutazione iniziale della conformità e fanno parte delle informazioni contenute nella documentazione tecnica di cui all&#039;[[Allegato IV|allegato IV]], punto 2, lettera f), non costituiscono una modifica sostanziale.&lt;br /&gt;
&lt;br /&gt;
5. Alla Commissione è conferito il potere di adottare atti delegati conformemente all&#039;[[Art.97|articolo 97]] al fine di modificare gli [[Allegato VI|allegati VI]] e [[Allegato VII|VII]] aggiornandoli alla luce del progresso tecnico.&lt;br /&gt;
&lt;br /&gt;
6. Alla Commissione è conferito il potere di adottare atti delegati conformemente all&#039;[[Art.97|articolo 97]] che modificano i paragrafi 1 e 2 del presente articolo per assoggettare i sistemi di IA ad alto rischio di cui all&#039;[[Allegato III|allegato III, punti da 2 a 8]], alla procedura di valutazione della conformità di cui all&#039;[[Allegato VII|allegato VII]] o a parti di essa. La Commissione adotta tali atti delegati tenendo conto dell&#039;efficacia della procedura di valutazione della conformità basata sul controllo interno di cui all&#039;[[Allegato VI|allegato VI]] nel prevenire o ridurre al minimo i rischi per la salute, la sicurezza e la protezione dei diritti fondamentali posti da tali sistemi, nonché della disponibilità di capacità e risorse adeguate tra gli organismi notificati.&lt;br /&gt;
&lt;br /&gt;
&amp;lt;br /&amp;gt;&lt;br /&gt;
&amp;lt;div style=&amp;quot;border: 1px solid #8d8d8d; background: #dcdcdc; display: flex; padding: .5rem 1rem; max-width: 100%;margin: 1rem auto&amp;quot;&amp;gt;&lt;br /&gt;
  &amp;lt;div style=&amp;quot;margin-right:1rem&amp;quot;&amp;gt;[[File:Octicons-file-text.svg|30px]]&amp;lt;/div&amp;gt;&lt;br /&gt;
  &amp;lt;div style=&amp;quot;width:100%&amp;quot;&amp;gt;&lt;br /&gt;
    &amp;lt;div style=&amp;quot;font-weight: bold&amp;quot;&amp;gt;&#039;&#039;&#039;CONSIDERANDO DI RIFERIMENTO&#039;&#039;&#039;&lt;br /&gt;
    {|&lt;br /&gt;
|[[C.78|Considerando &#039;&#039;&#039;78&#039;&#039;&#039;]]•||[[C.123|Considerando &#039;&#039;&#039;123&#039;&#039;&#039;]]•||[[C.124|Considerando &#039;&#039;&#039;124&#039;&#039;&#039;]]•||[[C.125|Considerando &#039;&#039;&#039;125&#039;&#039;&#039;]]•||[[C.126|Considerando &#039;&#039;&#039;126&#039;&#039;&#039;]]•||[[C.128|Considerando &#039;&#039;&#039;128&#039;&#039;&#039;]]•||[[C.147|Considerando &#039;&#039;&#039;147&#039;&#039;&#039;]]&lt;br /&gt;
|}&amp;lt;/div&amp;gt;&lt;br /&gt;
  &amp;lt;/div&amp;gt;&lt;br /&gt;
&amp;lt;/div&amp;gt;&lt;/div&gt;</summary>
		<author><name>InsaidewikiAA</name></author>
	</entry>
	<entry>
		<id>https://www.wikiaiact.it/w139/index.php?title=Art.33&amp;diff=1044</id>
		<title>Art.33</title>
		<link rel="alternate" type="text/html" href="https://www.wikiaiact.it/w139/index.php?title=Art.33&amp;diff=1044"/>
		<updated>2024-07-08T08:53:49Z</updated>

		<summary type="html">&lt;p&gt;InsaidewikiAA: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;&amp;lt;big&amp;gt;&amp;lt;big&amp;gt;&amp;lt;big&amp;gt;&#039;&#039;&#039;Affiliate degli organismi notificati e subappaltatori&#039;&#039;&#039;&amp;lt;/big&amp;gt;&amp;lt;/big&amp;gt;&amp;lt;/big&amp;gt;&lt;br /&gt;
[[Categoria:Articoli]]&lt;br /&gt;
{{DEFAULTSORT:Art.33 (Affiliate degli organismi notificati e subappaltatori)}}&lt;br /&gt;
{{Nota_Articoli}}&lt;br /&gt;
&lt;br /&gt;
1. L&#039;organismo notificato, qualora subappalti compiti specifici connessi alla valutazione della conformità oppure ricorra a un&#039;affiliata, garantisce che il subappaltatore o l&#039;affiliata soddisfino i requisiti di cui all&#039;[[Art.31|articolo 31]] e ne informa l&#039;autorità di notifica.&lt;br /&gt;
&lt;br /&gt;
2. Gli organismi notificati si assumono la completa responsabilità dei compiti eseguiti da eventuali subappaltatori o affiliate.&lt;br /&gt;
&lt;br /&gt;
3. Le attività possono essere subappaltate o eseguite da un&#039;affiliata solo con il consenso del fornitore. Gli organismi notificati mettono a disposizione del pubblico un elenco delle loro affiliate.&lt;br /&gt;
&lt;br /&gt;
4. I documenti pertinenti riguardanti la valutazione delle qualifiche del subappaltatore o dell&#039;affiliata e il lavoro da essi eseguito a norma del presente regolamento sono tenuti a disposizione dell&#039;autorità di notifica per un periodo di cinque anni a decorrere dalla data in cui termina il contratto di subappalto.&lt;br /&gt;
&lt;br /&gt;
&amp;lt;br /&amp;gt;&lt;br /&gt;
&amp;lt;div style=&amp;quot;border: 1px solid #8d8d8d; background: #dcdcdc; display: flex; padding: .5rem 1rem; max-width: 100%;margin: 1rem auto&amp;quot;&amp;gt;&lt;br /&gt;
  &amp;lt;div style=&amp;quot;margin-right:1rem&amp;quot;&amp;gt;[[File:Octicons-file-text.svg|30px]]&amp;lt;/div&amp;gt;&lt;br /&gt;
  &amp;lt;div style=&amp;quot;width:100%&amp;quot;&amp;gt;&lt;br /&gt;
    &amp;lt;div style=&amp;quot;font-weight: bold&amp;quot;&amp;gt;&#039;&#039;&#039;CONSIDERANDO DI RIFERIMENTO&#039;&#039;&#039;&lt;br /&gt;
    {|&lt;br /&gt;
|[[C.126|Considerando &#039;&#039;&#039;126&#039;&#039;&#039;]]&lt;br /&gt;
|}&amp;lt;/div&amp;gt;&lt;br /&gt;
  &amp;lt;/div&amp;gt;&lt;br /&gt;
&amp;lt;/div&amp;gt;&lt;/div&gt;</summary>
		<author><name>InsaidewikiAA</name></author>
	</entry>
	<entry>
		<id>https://www.wikiaiact.it/w139/index.php?title=Art.31&amp;diff=1043</id>
		<title>Art.31</title>
		<link rel="alternate" type="text/html" href="https://www.wikiaiact.it/w139/index.php?title=Art.31&amp;diff=1043"/>
		<updated>2024-07-08T08:52:42Z</updated>

		<summary type="html">&lt;p&gt;InsaidewikiAA: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;&amp;lt;big&amp;gt;&amp;lt;big&amp;gt;&amp;lt;big&amp;gt;&#039;&#039;&#039;Requisiti relativi agli organismi notificati&#039;&#039;&#039;&amp;lt;/big&amp;gt;&amp;lt;/big&amp;gt;&amp;lt;/big&amp;gt;&lt;br /&gt;
[[Categoria:Articoli]]&lt;br /&gt;
{{DEFAULTSORT:Art.31 (Requisiti relativi agli organismi notificati)}}&lt;br /&gt;
{{Nota_Articoli}}&lt;br /&gt;
&lt;br /&gt;
1. Un organismo notificato è istituito a norma del diritto nazionale di uno Stato membro e ha personalità giuridica.&lt;br /&gt;
&lt;br /&gt;
2. Gli organismi notificati soddisfano i requisiti organizzativi, di gestione della qualità e relativi alle risorse e ai processi necessari all&#039;assolvimento dei loro compiti nonché i requisiti idonei di cibersicurezza.&lt;br /&gt;
&lt;br /&gt;
3. La struttura organizzativa, l&#039;assegnazione delle responsabilità, le linee di riporto e il funzionamento degli organismi notificati garantiscono la fiducia nelle loro prestazioni e nei risultati delle attività di valutazione della conformità che essi effettuano.&lt;br /&gt;
&lt;br /&gt;
4. Gli organismi notificati sono indipendenti dal fornitore di un sistema di IA ad alto rischio in relazione al quale svolgono attività di valutazione della conformità. Gli organismi notificati sono inoltre indipendenti da qualsiasi altro operatore avente un interesse economico nei sistemi di IA ad alto rischio oggetto della valutazione, nonché da eventuali concorrenti del fornitore. Ciò non preclude l&#039;uso dei sistemi di IA ad alto rischio oggetto della valutazione che sono necessari per il funzionamento dell&#039;organismo di valutazione della conformità o l&#039;uso di tali sistemi di IA ad alto rischio per scopi privati.&lt;br /&gt;
&lt;br /&gt;
5. L&#039;organismo di valutazione della conformità, i suoi alti dirigenti e il personale incaricato di svolgere i compiti di valutazione della conformità non intervengono direttamente nella progettazione, nello sviluppo, nella commercializzazione o nell&#039;utilizzo di sistemi di IA ad alto rischio, né rappresentano i soggetti impegnati in tali attività. Essi non intraprendono alcuna attività che possa essere in conflitto con la loro indipendenza di giudizio o la loro integrità per quanto riguarda le attività di valutazione della conformità per le quali sono notificati. Ciò vale in particolare per i servizi di consulenza.&lt;br /&gt;
&lt;br /&gt;
6. Gli organismi notificati sono organizzati e gestiti in modo da salvaguardare l&#039;indipendenza, l&#039;obiettività e l&#039;imparzialità delle loro attività. Gli organismi notificati documentano e attuano una struttura e procedure per salvaguardare l&#039;imparzialità e per promuovere e applicare i principi di imparzialità in tutta l&#039;organizzazione, tra il personale e nelle attività di valutazione.&lt;br /&gt;
&lt;br /&gt;
7. Gli organismi notificati dispongono di procedure documentate per garantire che il loro personale, i loro comitati, le affiliate, i subappaltatori e qualsiasi altra organizzazione associata o il personale di organismi esterni mantengano, conformemente all&#039;[[Art.78|articolo 78]], la riservatezza delle informazioni di cui vengono in possesso nello svolgimento delle attività di valutazione della conformità, salvo quando la normativa ne prescriva la divulgazione. Il personale degli organismi notificati è tenuto a osservare il segreto professionale riguardo a tutte le informazioni ottenute nello svolgimento dei propri compiti a norma del presente regolamento, tranne che nei confronti delle autorità di notifica dello Stato membro in cui svolge le proprie attività. &lt;br /&gt;
&lt;br /&gt;
8. Gli organismi notificati dispongono di procedure per svolgere le attività che tengono debitamente conto delle dimensioni di un fornitore, del settore in cui opera, della sua struttura e del grado di complessità del sistema di IA interessato. &lt;br /&gt;
&lt;br /&gt;
9. Gli organismi notificati sottoscrivono un&#039;adeguata assicurazione di responsabilità per le loro attività di valutazione della conformità, a meno che lo Stato membro in cui sono stabiliti non si assuma tale responsabilità a norma del diritto nazionale o non sia esso stesso direttamente responsabile della valutazione della conformità. &lt;br /&gt;
&lt;br /&gt;
10. Gli organismi notificati sono in grado di eseguire tutti i compiti assegnati loro in forza del presente regolamento con il più elevato grado di integrità professionale e di competenza richiesta nel settore specifico, indipendentemente dal fatto che tali compiti siano eseguiti dagli organismi notificati stessi o per loro conto e sotto la loro responsabilità.&lt;br /&gt;
&lt;br /&gt;
11. Gli organismi notificati dispongono di sufficienti competenze interne per poter valutare efficacemente i compiti svolti da parti esterne per loro conto. Gli organismi notificati dispongono permanentemente di sufficiente personale amministrativo, tecnico, giuridico e scientifico dotato di esperienza e conoscenze relative ai tipi di sistemi di IA, ai dati, al calcolo dei dati pertinenti, nonché ai requisiti di cui alla sezione 2.&lt;br /&gt;
&lt;br /&gt;
12. Gli organismi notificati partecipano alle attività di coordinamento di cui all&#039;[[Art.38|articolo 38]]. Inoltre essi partecipano direttamente o sono rappresentati in seno alle organizzazioni europee di normazione o garantiscono di essere informati e di mantenersi aggiornati in merito alle norme pertinenti.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&amp;lt;br /&amp;gt;&lt;br /&gt;
&amp;lt;div style=&amp;quot;border: 1px solid #8d8d8d; background: #dcdcdc; display: flex; padding: .5rem 1rem; max-width: 100%;margin: 1rem auto&amp;quot;&amp;gt;&lt;br /&gt;
  &amp;lt;div style=&amp;quot;margin-right:1rem&amp;quot;&amp;gt;[[File:Octicons-file-text.svg|30px]]&amp;lt;/div&amp;gt;&lt;br /&gt;
  &amp;lt;div style=&amp;quot;width:100%&amp;quot;&amp;gt;&lt;br /&gt;
    &amp;lt;div style=&amp;quot;font-weight: bold&amp;quot;&amp;gt;&#039;&#039;&#039;CONSIDERANDO DI RIFERIMENTO&#039;&#039;&#039;&lt;br /&gt;
    {|&lt;br /&gt;
|[[C.145|Considerando &#039;&#039;&#039;145&#039;&#039;&#039;]]&lt;br /&gt;
|}&amp;lt;/div&amp;gt;&lt;br /&gt;
  &amp;lt;/div&amp;gt;&lt;br /&gt;
&amp;lt;/div&amp;gt;&lt;/div&gt;</summary>
		<author><name>InsaidewikiAA</name></author>
	</entry>
	<entry>
		<id>https://www.wikiaiact.it/w139/index.php?title=Art.30&amp;diff=1042</id>
		<title>Art.30</title>
		<link rel="alternate" type="text/html" href="https://www.wikiaiact.it/w139/index.php?title=Art.30&amp;diff=1042"/>
		<updated>2024-07-08T08:49:46Z</updated>

		<summary type="html">&lt;p&gt;InsaidewikiAA: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;&amp;lt;big&amp;gt;&amp;lt;big&amp;gt;&amp;lt;big&amp;gt;&#039;&#039;&#039;Procedura di notifica&#039;&#039;&#039;&amp;lt;/big&amp;gt;&amp;lt;/big&amp;gt;&amp;lt;/big&amp;gt; &lt;br /&gt;
[[Categoria:Articoli]]&lt;br /&gt;
{{DEFAULTSORT:Art.30 (Procedura di notifica)}}&lt;br /&gt;
{{Nota_Articoli}}&lt;br /&gt;
&lt;br /&gt;
1. Le autorità di notifica possono notificare solo gli organismi di valutazione della conformità che siano conformi alle prescrizioni di cui all&#039;[[Art.31|articolo 31]].&lt;br /&gt;
&lt;br /&gt;
2. Le autorità di notifica notificano alla Commissione e agli altri Stati membri, utilizzando lo strumento elettronico di notifica elaborato e gestito dalla Commissione, ogni organismo di valutazione della conformità di cui al paragrafo 1.&lt;br /&gt;
&lt;br /&gt;
3. La notifica di cui al paragrafo 2 del presente articolo include tutti i dettagli riguardanti le attività di valutazione della conformità, il modulo o i moduli di valutazione della conformità, i tipi di sistemi di IA interessati, nonché la relativa attestazione di competenza. Qualora una notifica non sia basata su un certificato di accreditamento di cui all&#039;[[Art.29|articolo 29, paragrafo 2]], l&#039;autorità di notifica fornisce alla Commissione e agli altri Stati membri le prove documentali che attestino la competenza dell&#039;organismo di valutazione della conformità nonché le misure predisposte per fare in modo che tale organismo sia monitorato periodicamente e continui a soddisfare i requisiti di cui all&#039;[[Art.31|articolo 31]].&lt;br /&gt;
&lt;br /&gt;
4. L&#039;organismo di valutazione della conformità interessato può eseguire le attività di un organismo notificato solo se non sono sollevate obiezioni da parte della Commissione o degli altri Stati membri entro due settimane dalla notifica da parte di un&#039;autorità di notifica, qualora essa includa un certificato di accreditamento di cui all&#039;[[Art.29|articolo 29, paragrafo 2]], o entro due mesi dalla notifica da parte dell&#039;autorità di notifica, qualora essa includa le prove documentali di cui all&#039;[[Art.29|articolo 29, paragrafo 3]].&lt;br /&gt;
&lt;br /&gt;
5. Se sono sollevate obiezioni, la Commissione avvia senza ritardo consultazioni con gli Stati membri pertinenti e l&#039;organismo di valutazione della conformità. Tenutone debito conto, la Commissione decide se l&#039;autorizzazione è giustificata. La Commissione trasmette la propria decisione allo Stato membro interessato e all&#039;organismo di valutazione della conformità pertinente.&lt;br /&gt;
&lt;br /&gt;
&amp;lt;br /&amp;gt;&lt;/div&gt;</summary>
		<author><name>InsaidewikiAA</name></author>
	</entry>
	<entry>
		<id>https://www.wikiaiact.it/w139/index.php?title=Allegato_XIII&amp;diff=1031</id>
		<title>Allegato XIII</title>
		<link rel="alternate" type="text/html" href="https://www.wikiaiact.it/w139/index.php?title=Allegato_XIII&amp;diff=1031"/>
		<updated>2024-07-04T10:28:27Z</updated>

		<summary type="html">&lt;p&gt;InsaidewikiAA: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;&amp;lt;big&amp;gt;&amp;lt;big&amp;gt;&amp;lt;big&amp;gt;&#039;&#039;&#039;Criteri per la designazione dei modelli di IA per finalità generali con rischio sistemico di cui all&#039;articolo 51&#039;&#039;&#039;&amp;lt;/big&amp;gt;&amp;lt;/big&amp;gt;&amp;lt;/big&amp;gt;&lt;br /&gt;
[[Categoria:Allegati]]&lt;br /&gt;
{{DEFAULTSORT:Allegato XIII (Criteri per la designazione dei modelli di IA per finalità generali con rischio sistemico di cui all&#039;articolo 51)}}&lt;br /&gt;
{{Nota_Articoli}}&lt;br /&gt;
Al fine di determinare se un modello di IA per finalità generali ha capacità o un impatto equivalente a quelli di cui all&#039;[[Art.51|articolo 51, paragrafo 1, lettera a)]], la Commissione tiene conto dei criteri seguenti:&lt;br /&gt;
:a) il numero di parametri del modello;&lt;br /&gt;
:b) la qualità o la dimensione del set di dati, ad esempio misurata mediante token;&lt;br /&gt;
:c) la quantità di calcolo utilizzata per addestrare il modello misurata in operazioni in virgola mobile o indicata da una combinazione di altre variabili quali il costo stimato dell&#039;addestramento, il tempo stimato necessario per l&#039;addestramento o il consumo energetico stimato per l&#039;addestramento;&lt;br /&gt;
:d) le modalità di input e output del modello, come da testo a testo (modelli linguistici di grandi dimensioni), da testo a immagine, multimodalità e soglie di punta per determinare le capacità ad alto impatto per ciascuna modalità, nonché il tipo specifico di input e output (ad esempio sequenze biologiche);&lt;br /&gt;
:e) i parametri di riferimento e le valutazioni delle capacità del modello, anche tenendo conto del numero di compiti che non richiedono un addestramento aggiuntivo, la capacità di apprendere nuovi compiti distinti, il livello di autonomia e scalabilità e gli strumenti a cui ha accesso;&lt;br /&gt;
:f) se il modello ha un alto impatto sul mercato interno in considerazione della sua portata, che viene presunta quando il modello stesso è stato messo a disposizione di almeno 10 000 utenti commerciali registrati stabiliti nell&#039;Unione;&lt;br /&gt;
:g) il numero di utenti finali registrati.&lt;/div&gt;</summary>
		<author><name>InsaidewikiAA</name></author>
	</entry>
	<entry>
		<id>https://www.wikiaiact.it/w139/index.php?title=Allegato_XII&amp;diff=1030</id>
		<title>Allegato XII</title>
		<link rel="alternate" type="text/html" href="https://www.wikiaiact.it/w139/index.php?title=Allegato_XII&amp;diff=1030"/>
		<updated>2024-07-04T10:27:54Z</updated>

		<summary type="html">&lt;p&gt;InsaidewikiAA: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;&amp;lt;big&amp;gt;&amp;lt;big&amp;gt;&amp;lt;big&amp;gt;&#039;&#039;&#039;Informazioni sulla trasparenza di cui all&#039;articolo 53, paragrafo 1, lettera b)- documentazione tecnica per i fornitori di modelli di IA per finalità generali ai fornitori a valle che integrano il modello nel loro sistema di IA&#039;&#039;&#039;&amp;lt;/big&amp;gt;&amp;lt;/big&amp;gt;&amp;lt;/big&amp;gt;&lt;br /&gt;
[[Categoria:Allegati]]&lt;br /&gt;
{{DEFAULTSORT:Allegato XII (Informazioni sulla trasparenza di cui all&#039;articolo 53, paragrafo 1, lettera b)- documentazione tecnica per i fornitori di modelli di IA per finalità generali ai fornitori a valle che integrano il modello nel loro sistema di IA)}}&lt;br /&gt;
{{Nota_Articoli}}&lt;br /&gt;
Le informazioni di cui all&#039;[[Art.53|articolo 53, paragrafo 1, lettera b)]], contengono almeno quanto segue:&lt;br /&gt;
&lt;br /&gt;
1. Una descrizione generale del modello di IA per finalità generali comprendente:&lt;br /&gt;
:a) i compiti che il modello è destinato a eseguire e il tipo e la natura dei sistemi di IA in cui può essere integrato;&lt;br /&gt;
:b) le politiche di utilizzo accettabili applicabili;&lt;br /&gt;
:c) la data di pubblicazione e i metodi di distribuzione;&lt;br /&gt;
:d) il modo in cui il modello interagisce o può essere utilizzato per interagire con hardware o software che non fanno parte del modello stesso, ove applicabile;&lt;br /&gt;
:e) le versioni del software pertinente relative all&#039;uso del modello di IA per finalità generali, se del caso;&lt;br /&gt;
:f) l&#039;architettura e il numero di parametri;&lt;br /&gt;
:g) la modalità (ad esempio testo, immagine) e il formato degli input e degli output;&lt;br /&gt;
:h) la licenza per il modello.&lt;br /&gt;
&lt;br /&gt;
2. Una descrizione degli elementi del modello e del processo relativo al suo sviluppo, compresi:&lt;br /&gt;
:a) i mezzi tecnici (ad esempio istruzioni per l&#039;uso, infrastruttura, strumenti) necessari per integrare il modello di IA per finalità generali nei sistemi di IA;&lt;br /&gt;
:b) la modalità (ad esempio testo, immagine, ecc.) e il formato degli input e degli output e la loro dimensione massima (ad esempio, lunghezza della finestra contestuale, ecc.);&lt;br /&gt;
:c) informazioni sui dati utilizzati per l&#039;addestramento, la prova e la convalida, se del caso, compresi il tipo e la provenienza dei dati e le metodologie di organizzazione.&lt;/div&gt;</summary>
		<author><name>InsaidewikiAA</name></author>
	</entry>
	<entry>
		<id>https://www.wikiaiact.it/w139/index.php?title=Allegato_IX&amp;diff=1029</id>
		<title>Allegato IX</title>
		<link rel="alternate" type="text/html" href="https://www.wikiaiact.it/w139/index.php?title=Allegato_IX&amp;diff=1029"/>
		<updated>2024-07-04T10:26:59Z</updated>

		<summary type="html">&lt;p&gt;InsaidewikiAA: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;&amp;lt;big&amp;gt;&amp;lt;big&amp;gt;&amp;lt;big&amp;gt;&#039;&#039;&#039;Informazioni da presentare all&#039;atto della registrazione dei sistemi di IA ad alto rischio elencati nell&#039;allegato III in relazione alle prove in condizioni reali in conformità dell&#039;articolo 60&#039;&#039;&#039;&amp;lt;/big&amp;gt;&amp;lt;/big&amp;gt;&amp;lt;/big&amp;gt;&lt;br /&gt;
[[Categoria:Allegati]]&lt;br /&gt;
{{DEFAULTSORT:Allegato IX (Informazioni da presentare all&#039;atto della registrazione dei sistemi di IA ad alto rischio elencati nell&#039;allegato III in relazione alle prove in condizioni reali in conformità dell&#039;articolo 60)}}&lt;br /&gt;
{{Nota_Articoli}}&lt;br /&gt;
&lt;br /&gt;
Le seguenti informazioni devono essere fornite e successivamente aggiornate in relazione alle prove in condizioni reali che devono essere registrate a norma dell&#039;[[Art.60|articolo 60]]:&lt;br /&gt;
:1. un numero di identificazione unico a livello dell&#039;Unione della prova in condizioni reali;&lt;br /&gt;
&lt;br /&gt;
:2. il nome e i dati di contatto del fornitore o potenziale fornitore e dei deployer coinvolti nella prova in condizioni reali;&lt;br /&gt;
&lt;br /&gt;
:3. una breve descrizione del sistema di IA, la sua finalità prevista e altre informazioni necessarie per l&#039;identificazione del sistema;&lt;br /&gt;
&lt;br /&gt;
:4. una sintesi delle principali caratteristiche del piano di prova in condizioni reali;&lt;br /&gt;
&lt;br /&gt;
:5. informazioni sulla sospensione o sulla cessazione della prova in condizioni reali.&lt;/div&gt;</summary>
		<author><name>InsaidewikiAA</name></author>
	</entry>
	<entry>
		<id>https://www.wikiaiact.it/w139/index.php?title=Allegato_XI&amp;diff=1028</id>
		<title>Allegato XI</title>
		<link rel="alternate" type="text/html" href="https://www.wikiaiact.it/w139/index.php?title=Allegato_XI&amp;diff=1028"/>
		<updated>2024-07-04T10:26:36Z</updated>

		<summary type="html">&lt;p&gt;InsaidewikiAA: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;&amp;lt;big&amp;gt;&amp;lt;big&amp;gt;&amp;lt;big&amp;gt;&#039;&#039;&#039;Documentazione tecnica di cui all&#039;articolo 53, paragrafo 1, lettera a) — documentazione tecnica per i fornitori di modelli di IA per finalità generali)&#039;&#039;&#039;&amp;lt;/big&amp;gt;&amp;lt;/big&amp;gt;&amp;lt;/big&amp;gt;&lt;br /&gt;
[[Categoria:Allegati]]&lt;br /&gt;
{{DEFAULTSORT:Allegato XI (Documentazione tecnica di cui all&#039;articolo 53, paragrafo 1, lettera a) — documentazione tecnica per i fornitori di modelli di IA per finalità generali)}}&lt;br /&gt;
{{Nota_Articoli}}&lt;br /&gt;
&#039;&#039;&#039;&#039;&#039;Sezione 1&#039;&#039;&#039;&#039;&#039;&amp;lt;br /&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;&#039;&#039;Informazioni che devono fornire tutti i fornitori di modelli di IA per finalità generali&#039;&#039;&#039;&#039;&#039;&amp;lt;br /&amp;gt;&lt;br /&gt;
&lt;br /&gt;
La documentazione tecnica di cui all&#039;[[Art.53|articolo 53, paragrafo 1, lettera a)]], deve includere almeno le seguenti informazioni, in funzione della dimensione e del profilo di rischio del modello:&lt;br /&gt;
&lt;br /&gt;
1. Una descrizione generale del modello di IA per finalità generali comprendente:&lt;br /&gt;
&lt;br /&gt;
:a) i compiti che il modello è destinato a eseguire e il tipo e la natura dei sistemi di IA in cui può essere integrato;&lt;br /&gt;
:b) le politiche di utilizzo accettabili applicabili;&lt;br /&gt;
:c) la data di pubblicazione e i metodi di distribuzione;&lt;br /&gt;
:d) l&#039;architettura e il numero di parametri;&lt;br /&gt;
:e) la modalità (ad esempio testo, immagine) e il formato degli input e degli output; &lt;br /&gt;
:f) la licenza.&lt;br /&gt;
&lt;br /&gt;
2. Una descrizione dettagliata degli elementi del modello di cui al punto 1 e informazioni pertinenti sul processo di sviluppo, compresi gli elementi seguenti:&lt;br /&gt;
&lt;br /&gt;
:a) i mezzi tecnici (ad esempio istruzioni per l&#039;uso, infrastruttura, strumenti) necessari per integrare il modello di IA per finalità generali nei sistemi di IA;&lt;br /&gt;
:b) le specifiche di progettazione del modello e del processo di addestramento, comprese le metodologie e le tecniche di addestramento, le principali scelte progettuali, comprese le motivazioni e le ipotesi formulate; gli aspetti che il modello è progettato per ottimizzare e la pertinenza dei diversi parametri, se del caso;&lt;br /&gt;
:c) informazioni sui dati utilizzati per l&#039;addestramento, la prova e la convalida, se del caso, compresi il tipo e la provenienza dei dati e le metodologie di organizzazione (ad esempio pulizia, filtraggio, ecc.), il numero di punti di dati, la loro portata e le principali caratteristiche; il modo in cui i dati sono stati ottenuti e selezionati e tutte le altre misure per rilevare l&#039;inadeguatezza delle fonti di dati e i metodi per rilevare distorsioni identificabili, se del caso;&lt;br /&gt;
:d) le risorse computazionali utilizzate per addestrare il modello (ad esempio il numero di operazioni in virgola mobile), il tempo di addestramento e altri dettagli pertinenti relativi all&#039;addestramento;&lt;br /&gt;
:e) il consumo energetico noto o stimato del modello.&lt;br /&gt;
&lt;br /&gt;
Per quanto riguarda la lettera e), se il consumo energetico del modello non è noto, il consumo energetico può basarsi su informazioni relative alle risorse computazionali utilizzate.&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;&#039;&#039;Sezione 2&#039;&#039;&#039;&#039;&#039;&amp;lt;br /&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;&#039;&#039;Informazioni aggiuntive che devono fornire i fornitori di modelli di IA per finalità generali con rischio sistemico&#039;&#039;&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
1. Una descrizione dettagliata delle strategie di valutazione, compresi i risultati della valutazione, sulla base dei protocolli e degli strumenti di valutazione pubblici disponibili o di altri metodi di valutazione. Le strategie di valutazione comprendono criteri di valutazione, metriche e metodi per l&#039;individuazione delle limitazioni.&amp;lt;br /&amp;gt;&lt;br /&gt;
2. Se del caso, una descrizione dettagliata delle misure messe in atto al fine di effettuare il test contraddittorio (adversarial testing) interno e/o esterno (ad esempio, red teaming), adeguamenti dei modelli, compresi l&#039;allineamento e la messa a punto.&amp;lt;br /&amp;gt;&lt;br /&gt;
3. Se del caso, una descrizione dettagliata dell&#039;architettura del sistema che spiega in che modo i componenti software si basano l&#039;uno sull&#039;altro o si alimentano reciprocamente e si integrano nel processo complessivo.&lt;/div&gt;</summary>
		<author><name>InsaidewikiAA</name></author>
	</entry>
	<entry>
		<id>https://www.wikiaiact.it/w139/index.php?title=Allegato_X&amp;diff=1027</id>
		<title>Allegato X</title>
		<link rel="alternate" type="text/html" href="https://www.wikiaiact.it/w139/index.php?title=Allegato_X&amp;diff=1027"/>
		<updated>2024-07-04T10:26:02Z</updated>

		<summary type="html">&lt;p&gt;InsaidewikiAA: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;&amp;lt;big&amp;gt;&amp;lt;big&amp;gt;&amp;lt;big&amp;gt;&#039;&#039;&#039;Atti legislativi dell&#039;Unione sui sistemi IT su larga scala nello spazio di libertà, sicurezza e giustizia&#039;&#039;&#039;&amp;lt;/big&amp;gt;&amp;lt;/big&amp;gt;&amp;lt;/big&amp;gt;&lt;br /&gt;
[[Categoria:Allegati]]&lt;br /&gt;
{{DEFAULTSORT:Allegato X (Atti legislativi dell&#039;Unione sui sistemi IT su larga scala nello spazio di libertà, sicurezza e giustizia)}}&lt;br /&gt;
{{Nota_Articoli}}&lt;br /&gt;
1. Sistema di informazione Schengen&lt;br /&gt;
&lt;br /&gt;
:a) Regolamento (UE) 2018/1860 del Parlamento europeo e del Consiglio, del 28 novembre 2018, relativo all&#039;uso del sistema d&#039;informazione Schengen per il rimpatrio di cittadini di paesi terzi il cui soggiorno è irregolare (GU L 312 del 7.12.2018,pag. 1).&lt;br /&gt;
:b) regolamento (UE) 2018/1861 del Parlamento europeo e del Consiglio, del 28 novembre 2018, sull&#039;istituzione, l&#039;esercizio e l&#039;uso del sistema d&#039;informazione Schengen (SIS) nel settore delle verifiche di frontiera, che modifica la convenzione di applicazione dell&#039;accordo di Schengen e abroga il regolamento (CE) n. 1987/2006 (GU L 312 del 7.12.2018, pag. 14).&lt;br /&gt;
:c) regolamento (UE) 2018/1862 del Parlamento europeo e del Consiglio, del 28 novembre 2018, sull&#039;istituzione, l&#039;esercizio e l&#039;uso del sistema d&#039;informazione Schengen (SIS) nel settore della cooperazione di polizia e della cooperazione giudiziaria in materia penale, che modifica e abroga la decisione 2007/533/GAI del Consiglio e che abroga il regolamento (CE) n. 1986/2006 del Parlamento europeo e del Consiglio e la decisione 2010/261/UE della Commissione (GU L 312 del 7.12.2018, pag. 56).&lt;br /&gt;
&lt;br /&gt;
2. Sistema di informazione visti&lt;br /&gt;
&lt;br /&gt;
: a) Regolamento (UE) 2021/1133 del Parlamento europeo e del Consiglio, del 7 luglio 2021, che modifica i regolamenti (UE) n. 603/2013, (UE) 2016/794, (UE) 2018/1862, (UE) 2019/816 e (UE) 2019/818 per quanto riguarda la definizione delle condizioni di accesso agli altri sistemi di informazione dell&#039;UE ai fini del sistema di informazione visti (GU L 248 del 13.7.2021, pag. 1);&lt;br /&gt;
: b) regolamento (UE) 2021/1134 del Parlamento europeo e del Consiglio, del 7 luglio 2021, che modifica i regolamenti (CE) n. 767/2008, (CE) n. 810/2009, (UE) 2016/399, (UE) 2017/2226, (UE) 2018/1240, (UE) 2018/1860, (UE) 2018/1861, (UE) 2019/817 e (UE) 2019/1896 del Parlamento europeo e del Consiglio e che abroga le decisioni 2004/512/CE e 2008/633/GAI del Consiglio, ai fini della riforma del sistema di informazione visti (GU L 248 del 13.7.2021, pag. 11)&lt;br /&gt;
&lt;br /&gt;
3. Eurodac&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;&#039;&#039;Regolamento (UE) 2024/...&#039;&#039;&#039;&#039;&#039; del Parlamento europeo e del Consiglio che istituisce l&#039;&amp;quot;Eurodac&amp;quot; per il confronto dei dati biometrici ai fini dell&#039;applicazione efficace dei &#039;&#039;&#039;&#039;&#039;regolamenti (UE) 2024/... e (UE)2024/...&#039;&#039;&#039;&#039;&#039; del Parlamento europeo e del Consiglio e della direttiva 2001/55/CE del Consiglio e ai fini dell&#039;identificazione dei cittadini di paesi terzi e apolidi il cui soggiorno è irregolare, e per le richieste di confronto con i dati Eurodac presentate dalle autorità di contrasto degli Stati membri e da Europol a fini di contrasto, che modifica i regolamenti (UE) 2018/1240 e (UE) 2019/818 del Parlamento europeo e del Consiglio e che abroga il regolamento (UE) n. 603/2013 del Parlamento europeo e del Consiglio&amp;lt;sup&amp;gt;+&amp;lt;/sup&amp;gt; &amp;lt;ref&amp;gt; &amp;lt;sup&amp;gt;+&amp;lt;/sup&amp;gt;GU: Inserire nel testo il numero del regolamento di cui al documento PE-CONS 15/24 (2016/0132 (COD)) e inserire il numero, la data, il titolo e il riferimento GU di detto regolamento nella nota a piè di pagina.&amp;lt;/ref&amp;gt;.&lt;br /&gt;
&lt;br /&gt;
4. Sistema di ingressi/uscite&lt;br /&gt;
&lt;br /&gt;
Regolamento (UE) 2017/2226 del Parlamento europeo e del Consiglio, del 30 novembre 2017, che istituisce un sistema di ingressi/uscite per la registrazione dei dati di ingresso e di uscita e dei dati relativi al respingimento dei cittadini di paesi terzi che attraversano le frontiere esterne degli Stati membri e che determina le condizioni di accesso al sistema di ingressi/uscite a fini di contrasto e che modifica la Convenzione di applicazione dell&#039;Accordo di Schengen e i regolamenti (CE) n. 767/2008 e (UE) n. 1077/2011 (GU L 327 del 9.12.2017, pag. 20).&lt;br /&gt;
&lt;br /&gt;
5. Sistema europeo di informazione e autorizzazione ai viaggi&lt;br /&gt;
&lt;br /&gt;
:a) Regolamento (UE) 2018/1240 del Parlamento europeo e del Consiglio, del 12 settembre 2018, che istituisce un sistema europeo di informazione e autorizzazione ai viaggi (ETIAS) e che modifica i regolamenti (UE) n. 1077/2011, (UE) n. 515/2014, (UE) 2016/399, (UE) 2016/1624 e (UE) 2017/2226 (GU L 236 del 19.9.2018, pag. 1);&lt;br /&gt;
:b) regolamento (UE) 2018/1241 del Parlamento europeo e del Consiglio, del 12 settembre 2018, recante modifica del regolamento (UE) 2016/794 ai fini dell&#039;istituzione di un sistema europeo di informazione e autorizzazione ai viaggi (ETIAS) (GU L 236 del 19.9.2018, pag. 72). &lt;br /&gt;
&lt;br /&gt;
6. Sistema europeo di informazione sui casellari giudiziari riguardo ai cittadini di paesi terzi e apolidi&lt;br /&gt;
&lt;br /&gt;
Regolamento (UE) 2019/816 del Parlamento europeo e del Consiglio, del 17 aprile 2019, che istituisce un sistema centralizzato per individuare gli Stati membri in possesso di informazioni sulle condanne pronunciate a carico di cittadini di paesi terzi e apolidi (ECRIS-TCN) e integrare il sistema europeo di informazione sui casellari giudiziali, e che modifica il regolamento (UE) 2018/1726 (GU L 135 del 22.5.2019, pag. 1).&lt;br /&gt;
&lt;br /&gt;
7. Interoperabilità&lt;br /&gt;
&lt;br /&gt;
:a) Regolamento (UE) 2019/817 del Parlamento europeo e del Consiglio, del 20 maggio 2019, che istituisce un quadro per l&#039;interoperabilità tra i sistemi di informazione dell&#039;UE nel settore delle frontiere e dei visti e che modifica i regolamenti (CE) n. 767/2008, (UE) n. 2016/399, (UE) 2017/2226, (UE) 2018/1240, (UE) 2018/1726 e (UE) 2018/1861 del Parlamento europeo e del Consiglio e le decisioni 2004/512/CE e 2008/633/GAI del Consiglio (GU L 135 del 22.5.2019, pag. 27);&lt;br /&gt;
:b) regolamento (UE) 2019/818 del Parlamento europeo e del Consiglio, del 20 maggio 2019, che istituisce un quadro per l&#039;interoperabilità tra i sistemi di informazione dell&#039;UE nel settore della cooperazione di polizia e giudiziaria, asilo e migrazione, e che modifica i regolamenti (UE) 2018/1726, (UE) 2018/1862 e (UE) 2019/816 (GU L 135 del 22.5.2019, pag. 85).&lt;br /&gt;
&amp;lt;references /&amp;gt;&lt;/div&gt;</summary>
		<author><name>InsaidewikiAA</name></author>
	</entry>
	<entry>
		<id>https://www.wikiaiact.it/w139/index.php?title=Allegato_IX&amp;diff=1026</id>
		<title>Allegato IX</title>
		<link rel="alternate" type="text/html" href="https://www.wikiaiact.it/w139/index.php?title=Allegato_IX&amp;diff=1026"/>
		<updated>2024-07-04T10:25:22Z</updated>

		<summary type="html">&lt;p&gt;InsaidewikiAA: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;&amp;lt;big&amp;gt;&amp;lt;big&amp;gt;&amp;lt;big&amp;gt;&#039;&#039;&#039;Informazioni da presentare all&#039;atto della registrazione dei sistemi di IA ad alto rischio elencati nell&#039;allegato III in relazione alle prove in condizioni reali in conformità dell&#039;articolo 60&#039;&#039;&#039;&amp;lt;/big&amp;gt;&amp;lt;/big&amp;gt;&amp;lt;/big&amp;gt;&lt;br /&gt;
[[Categoria:Allegati]]&lt;br /&gt;
{{DEFAULTSORT:Allegato IX (Informazioni da presentare all&#039;atto della registrazione dei sistemi di IA ad alto rischio elencati nell&#039;allegato III in relazione alle prove in condizioni reali in conformità dell&#039;articolo 60)}}&lt;br /&gt;
{{Nota_Articoli}}&lt;br /&gt;
&lt;br /&gt;
Le seguenti informazioni devono essere fornite e successivamente aggiornate in relazione alle prove in condizioni reali che devono essere registrate a norma dell&#039;articolo 60:&lt;br /&gt;
:1. un numero di identificazione unico a livello dell&#039;Unione della prova in condizioni reali;&lt;br /&gt;
&lt;br /&gt;
:2. il nome e i dati di contatto del fornitore o potenziale fornitore e dei deployer coinvolti nella prova in condizioni reali;&lt;br /&gt;
&lt;br /&gt;
:3. una breve descrizione del sistema di IA, la sua finalità prevista e altre informazioni necessarie per l&#039;identificazione del sistema;&lt;br /&gt;
&lt;br /&gt;
:4. una sintesi delle principali caratteristiche del piano di prova in condizioni reali;&lt;br /&gt;
&lt;br /&gt;
:5. informazioni sulla sospensione o sulla cessazione della prova in condizioni reali.&lt;/div&gt;</summary>
		<author><name>InsaidewikiAA</name></author>
	</entry>
	<entry>
		<id>https://www.wikiaiact.it/w139/index.php?title=Allegato_VIII&amp;diff=1025</id>
		<title>Allegato VIII</title>
		<link rel="alternate" type="text/html" href="https://www.wikiaiact.it/w139/index.php?title=Allegato_VIII&amp;diff=1025"/>
		<updated>2024-07-04T10:23:15Z</updated>

		<summary type="html">&lt;p&gt;InsaidewikiAA: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;&amp;lt;big&amp;gt;&amp;lt;big&amp;gt;&amp;lt;big&amp;gt;&#039;&#039;&#039;Informazioni da presentare all&#039;atto della registrazione di sistemi di IA ad alto rischio in conformità dell&#039;articolo 49&#039;&#039;&#039;&amp;lt;/big&amp;gt;&amp;lt;/big&amp;gt;&amp;lt;/big&amp;gt;&lt;br /&gt;
[[Categoria:Allegati]]&lt;br /&gt;
{{DEFAULTSORT:Allegato VIII (Informazioni da presentare all&#039;atto della registrazione di sistemi di IA ad alto rischio in conformità dell&#039;articolo 49)}}&lt;br /&gt;
{{Nota_Articoli}}&lt;br /&gt;
&#039;&#039;&#039;&#039;&#039;Sezione A - Informazioni che i fornitori di sistemi di IA ad alto rischio devono presentare in conformità dell&#039;[[Art.49|articolo 49, paragrafo 1]]&#039;&#039;&#039;&#039;&#039;&amp;lt;br /&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Le seguenti informazioni devono essere fornite e successivamente aggiornate in relazione ai sistemi di IA ad alto rischio che devono essere registrati a norma dell&#039;[[Art.49|articolo 49, paragrafo 1]]:&lt;br /&gt;
:1. il nome, l&#039;indirizzo e i dati di contatto del fornitore;&lt;br /&gt;
:2. se le informazioni sono trasmesse da un&#039;altra persona per conto del fornitore: il nome, l&#039;indirizzo e i dati di contatto di tale persona;&lt;br /&gt;
:3. il nome, l&#039;indirizzo e i dati di contatto del rappresentante autorizzato, ove applicabile; &lt;br /&gt;
:4. la denominazione commerciale del sistema di IA e qualsiasi ulteriore riferimento inequivocabile che ne consenta l&#039;identificazione e la tracciabilità;&lt;br /&gt;
:5. la descrizione della finalità prevista del sistema di IA e dei componenti e delle funzioni supportati da tale sistema di IA; &lt;br /&gt;
:6. una descrizione di base concisa delle informazioni utilizzate dal sistema (dati, input) e della sua logica operativa;&lt;br /&gt;
:7. lo status del sistema di IA (sul mercato, o in servizio; non più immesso sul mercato/in servizio, richiamato); &lt;br /&gt;
:8. il tipo, il numero e la data di scadenza del certificato rilasciato dall&#039;organismo notificato e il nome o il numero di identificazione di tale organismo notificato, ove applicabile;&lt;br /&gt;
:9. una copia scannerizzata del certificato di cui al punto 8, ove applicabile; &lt;br /&gt;
:10. eventuali Stati membri dell&#039;Unione in cui il sistema di IA è stato immesso sul mercato, messo in servizio o reso disponibile;&lt;br /&gt;
:11. una copia della dichiarazione di conformità UE di cui all&#039;[[Art.47|articolo 47]];&lt;br /&gt;
:12. le istruzioni per l&#039;uso in formato elettronico; questa informazione non deve essere fornita per i sistemi di IA ad alto rischio nei settori delle attività di contrasto o della migrazione, dell&#039;asilo e della gestione del controllo delle frontiere di cui all&#039;[[Allegato III|allegato III]], punti 1, 6 e 7;&lt;br /&gt;
:13. un indirizzo internet per ulteriori informazioni (facoltativo).&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;&#039;&#039;Sezione B - Informazioni che i fornitori di sistemi di IA ad alto rischio devono presentare in conformità dell&#039;[[Art.49|articolo 49, paragrafo 2]]&#039;&#039;&#039;&#039;&#039;&amp;lt;br /&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Le seguenti informazioni devono essere fornite e successivamente aggiornate in relazione ai sistemi di IA che devono essere registrati a norma dell&#039;[[Art.49|articolo 49, paragrafo 2]]: &lt;br /&gt;
:1. il nome, l&#039;indirizzo e i dati di contatto del fornitore;&lt;br /&gt;
:2. se le informazioni sono trasmesse da un&#039;altra persona per conto del fornitore: il nome, l&#039;indirizzo e i dati di contatto di tale persona;&lt;br /&gt;
:3. il nome, l&#039;indirizzo e i dati di contatto del rappresentante autorizzato, ove applicabile; &lt;br /&gt;
:4. la denominazione commerciale del sistema di IA e qualsiasi ulteriore riferimento inequivocabile che ne consenta l&#039;identificazione e la tracciabilità; &lt;br /&gt;
:5. la descrizione della finalità prevista del sistema di IA;&lt;br /&gt;
:6. la o le condizioni di cui all&#039;[[Art.6|articolo 6, paragrafo 3]], sulla base delle quali il sistema di IA non è ritenuto ad alto rischio;&lt;br /&gt;
:7. una breve sintesi dei motivi per i quali il sistema di IA non è ritenuto ad alto rischio in applicazione della procedura di cui all&#039;[[Art.6|articolo 6, paragrafo 3]];&lt;br /&gt;
:8. lo status del sistema di IA (sul mercato, o in servizio; non più immesso sul mercato/in servizio, richiamato);&lt;br /&gt;
:9. eventuali Stati membri dell&#039;Unione in cui il sistema di IA è stato immesso sul mercato, messo in servizio o reso disponibile.&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;&#039;&#039;Sezione C - Informazioni che i fornitori di sistemi di IA ad alto rischio devono presentare in conformità dell&#039;[[Art.49|articolo 49, paragrafo 3]]&#039;&#039;&#039;&#039;&#039;&amp;lt;br /&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Le seguenti informazioni devono essere fornite e successivamente aggiornate in relazione ai sistemi di IA ad alto rischio che devono essere registrati a norma dell&#039;[[Art.49|articolo 49]]: &lt;br /&gt;
:1. il nome, l&#039;indirizzo e i dati di contatto del deployer; &lt;br /&gt;
:2. il nome, l&#039;indirizzo e i dati di contatto della persona che fornisce informazioni a nome del deployer; &lt;br /&gt;
:3. l&#039;indirizzo internet dell&#039;inserimento del sistema di IA nella banca dati dell&#039;UE da parte del suo fornitore;&lt;br /&gt;
:4. una sintesi dei risultati della valutazione d&#039;impatto sui diritti fondamentali effettuata a norma dell&#039;[[Art.27|articolo 27]];&lt;br /&gt;
:5. una sintesi della valutazione d&#039;impatto sulla protezione dei dati effettuata ai sensi dell&#039;articolo 35 del regolamento (UE) 2016/679 o dell&#039;articolo 27 della direttiva (UE) 2016/680, come specificato all&#039;[[Art.26|articolo 26, paragrafo 8]], del presente regolamento, ove applicabile.&lt;/div&gt;</summary>
		<author><name>InsaidewikiAA</name></author>
	</entry>
	<entry>
		<id>https://www.wikiaiact.it/w139/index.php?title=Allegato_VII&amp;diff=1024</id>
		<title>Allegato VII</title>
		<link rel="alternate" type="text/html" href="https://www.wikiaiact.it/w139/index.php?title=Allegato_VII&amp;diff=1024"/>
		<updated>2024-07-04T10:22:39Z</updated>

		<summary type="html">&lt;p&gt;InsaidewikiAA: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;&amp;lt;big&amp;gt;&amp;lt;big&amp;gt;&amp;lt;big&amp;gt;&#039;&#039;&#039;Conformità basata su una valutazione del sistema di gestione della qualità e su una valutazione della documentazione tecnica&#039;&#039;&#039;&amp;lt;/big&amp;gt;&amp;lt;/big&amp;gt;&amp;lt;/big&amp;gt;&lt;br /&gt;
[[Categoria:Allegati]]&lt;br /&gt;
{{DEFAULTSORT:Allegato VII (Conformità basata su una valutazione del sistema di gestione della qualità e su una valutazione della&lt;br /&gt;
documentazione tecnica)}}&lt;br /&gt;
{{Nota_Articoli}}&lt;br /&gt;
&lt;br /&gt;
1. Introduzione&amp;lt;br /&amp;gt;&lt;br /&gt;
La conformità basata su una valutazione del sistema di gestione della qualità e su una valutazione della documentazione tecnica scaturisce dalla procedura di valutazione della conformità di cui ai punti da 2 a 5.&lt;br /&gt;
&lt;br /&gt;
2. Aspetti generali&amp;lt;br /&amp;gt;&lt;br /&gt;
Il sistema di gestione della qualità approvato per la progettazione, lo sviluppo e la prova dei sistemi di IA a norma dell&#039;[[Art.17|articolo 17]] deve essere esaminato conformemente al punto 3 e deve essere soggetto alla vigilanza di cui al punto 5.&lt;br /&gt;
La documentazione tecnica del sistema di IA deve essere esaminata conformemente al punto 4. &lt;br /&gt;
&lt;br /&gt;
3. Sistema di gestione della qualità &lt;br /&gt;
:3.1. La domanda presentata dal fornitore deve comprendere: &lt;br /&gt;
::a) il nome e l&#039;indirizzo del fornitore e, nel caso in cui la domanda sia presentata da un rappresentante autorizzato, anche il nome e l&#039;indirizzo di quest&#039;ultimo;&lt;br /&gt;
::b) l&#039;elenco dei sistemi di IA cui si applica lo stesso sistema di gestione della qualità;&lt;br /&gt;
::c) la documentazione tecnica di ciascuno dei sistemi di IA cui si applica lo stesso sistema di gestione della qualità;&lt;br /&gt;
::d) la documentazione relativa al sistema di gestione della qualità che deve contemplare tutti gli aspetti elencati all&#039;[[Art.17|articolo 17]];&lt;br /&gt;
::e) una descrizione delle procedure vigenti per garantire che il sistema di gestione della qualità rimanga adeguato ed efficace;&lt;br /&gt;
::f) una dichiarazione scritta attestante che la stessa domanda non è stata presentata a nessun altro organismo notificato. &lt;br /&gt;
:3.2. Il sistema di gestione della qualità deve essere valutato dall&#039;organismo notificato, che deve stabilire se soddisfa i requisiti di cui all&#039;[[Art.17|articolo 17]]. &lt;br /&gt;
:La decisione deve essere notificata al fornitore o al suo rappresentante autorizzato. &lt;br /&gt;
:Tale notifica deve indicare le conclusioni della valutazione del sistema di gestione della qualità e la decisione di valutazione motivata. &lt;br /&gt;
:3.3. Il sistema di gestione della qualità approvato deve continuare a essere attuato e mantenuto dal fornitore in modo da rimanere adeguato ed efficiente.&lt;br /&gt;
:3.4. Il fornitore deve portare all&#039;attenzione dell&#039;organismo notificato qualsiasi modifica prevista del sistema di gestione della qualità approvato o dell&#039;elenco dei sistemi di IA cui si applica tale sistema. :Le modifiche proposte devono essere esaminate dall&#039;organismo notificato, che deve decidere se il sistema di gestione della qualità modificato continua a soddisfare i requisiti di cui al punto 3.2 o se è necessaria una nuova valutazione. &lt;br /&gt;
:L&#039;organismo notificato deve notificare al fornitore la propria decisione. &lt;br /&gt;
:Tale notifica deve indicare le conclusioni dell&#039;esame e la decisione di valutazione motivata. &lt;br /&gt;
4. Controllo della documentazione tecnica. &lt;br /&gt;
:4.1. Oltre alla domanda di cui al punto 3, il fornitore deve presentare una domanda a un organismo notificato di propria scelta per la valutazione della documentazione tecnica relativa al sistema di IA che il fornitore intende immettere sul mercato o mettere in servizio e cui si applica il sistema di gestione della qualità di cui al punto 3.&lt;br /&gt;
:4.2. La domanda deve comprendere: &lt;br /&gt;
::a) il nome e l&#039;indirizzo del fornitore;&lt;br /&gt;
::b) una dichiarazione scritta attestante che la stessa domanda non è stata presentata a nessun altro organismo notificato; &lt;br /&gt;
::c) la documentazione tecnica di cui all&#039;[[Allegato IV|allegato IV]].&lt;br /&gt;
:4.3. La documentazione tecnica deve essere esaminata dall&#039;organismo notificato. &lt;br /&gt;
:Se del caso e nei limiti di quanto necessario per lo svolgimento dei suoi compiti, all&#039;organismo notificato deve essere concesso pieno accesso ai set di dati di addestramento, convalida e prova utilizzati, anche, ove opportuno e fatte salve le garanzie di sicurezza, attraverso API o altri mezzi e strumenti tecnici pertinenti che consentano l&#039;accesso remoto.&lt;br /&gt;
:4.4. Nell&#039;esaminare la documentazione tecnica, l&#039;organismo notificato può chiedere al fornitore di presentare elementi probatori supplementari o di eseguire ulteriori prove per consentire una corretta valutazione della conformità del sistema di IA ai requisiti di cui al capo III, sezione 2. &lt;br /&gt;
:Qualora non sia soddisfatto delle prove effettuate dal fornitore, l&#039;organismo notificato stesso deve effettuare prove adeguate, a seconda dei casi. &lt;br /&gt;
:4.5. Ove necessario per valutare la conformità del sistema di IA ad alto rischio ai requisiti di cui al capo III, sezione 2, dopo che tutti gli altri mezzi ragionevoli per verificare la conformità sono stati esauriti e si sono rivelati insufficienti, e su richiesta motivata, anche all&#039;organismo notificato deve essere concesso l&#039;accesso ai modelli di addestramento e addestrati del sistema di IA, compresi i relativi parametri. &lt;br /&gt;
:Tale accesso è soggetto al vigente diritto dell&#039;Unione in materia di protezione della proprietà intellettuale e dei segreti commerciali.&lt;br /&gt;
:4.6. La decisione dell&#039;organismo notificato deve essere notificata al fornitore o al suo rappresentante autorizzato. Tale notifica deve indicare le conclusioni della valutazione della documentazione tecnica e la decisione di valutazione motivata. &lt;br /&gt;
:Se il sistema di IA è conforme ai requisiti di cui al capo III, sezione 2, l&#039;organismo notificato deve rilasciare un certificato di valutazione della documentazione tecnica dell&#039;Unione. Tale certificato deve indicare il nome e l&#039;indirizzo del fornitore, le conclusioni dell&#039;esame, le eventuali condizioni di validità e i dati necessari per identificare il sistema di IA.&lt;br /&gt;
:Il certificato e i suoi allegati devono contenere tutte le informazioni pertinenti per consentire la valutazione della conformità del sistema di IA e il controllo del sistema di IA durante l&#039;uso, ove applicabile.&lt;br /&gt;
:Se il sistema di IA non è conforme ai requisiti di cui al capo III, sezione 2, l&#039;organismo notificato deve rifiutare il rilascio di un certificato di valutazione della documentazione tecnica dell&#039;Unione e deve informare in merito il richiedente, motivando dettagliatamente il suo rifiuto.&lt;br /&gt;
:Se il sistema di IA non soddisfa il requisito relativo ai dati utilizzati per l&#039;addestramento, sarà necessario addestrare nuovamente il sistema di IA prima di presentare domanda per una nuova valutazione della conformità. In tal caso, la decisione di valutazione motivata dell&#039;organismo notificato che rifiuta il rilascio del certificato di valutazione della documentazione tecnica dell&#039;Unione contiene considerazioni specifiche sui dati di qualità utilizzati per addestrare il sistema di IA, in particolare sui motivi della non conformità. &lt;br /&gt;
:4.7. Qualsiasi modifica del sistema di IA che potrebbe incidere sulla conformità ai requisiti o sulla finalità prevista dello stesso deve essere valutata dall&#039;organismo notificato che ha rilasciato il certificato di valutazione della documentazione tecnica dell&#039;Unione. Il fornitore deve informare tale organismo notificato quando intende introdurre una delle modifiche di cui sopra o quando viene altrimenti a conoscenza del verificarsi di tali modifiche. Le modifiche previste devono essere valutate dall&#039;organismo notificato, che deve decidere se esse rendono necessaria una nuova valutazione della conformità a norma dell&#039;[[Art.43|articolo 43, paragrafo 4]], o se possono essere gestite tramite un supplemento del certificato di valutazione della documentazione tecnica dell&#039;Unione. In quest&#039;ultimo caso, l&#039;organismo notificato deve valutare le modifiche, notificare al fornitore la propria decisione e, in caso di approvazione delle modifiche, rilasciare a quest&#039;ultimo un supplemento del certificato di valutazione della documentazione tecnica dell&#039;Unione.&lt;br /&gt;
5. Vigilanza del sistema di gestione della qualità approvato. &lt;br /&gt;
:5.1. La finalità della vigilanza a cura dell&#039;organismo notificato di cui al punto 3 è garantire che il fornitore sia conforme ai termini e alle condizioni del sistema di gestione della qualità approvato.&lt;br /&gt;
:5.2. Ai fini della valutazione, il fornitore deve consentire all&#039;organismo notificato di accedere ai locali in cui hanno luogo la progettazione, lo sviluppo e le prove dei sistemi di IA. Il fornitore deve inoltre condividere con l&#039;organismo notificato tutte le informazioni necessarie. &lt;br /&gt;
:5.3. L&#039;organismo notificato deve eseguire audit periodici per assicurarsi che il fornitore mantenga e applichi il sistema di gestione della qualità e deve trasmettere al fornitore una relazione di audit. Nel contesto di tali audit, l&#039;organismo notificato può effettuare prove supplementari dei sistemi di IA per i quali è stato rilasciato un certificato di valutazione della documentazione tecnica dell&#039;Unione.&lt;/div&gt;</summary>
		<author><name>InsaidewikiAA</name></author>
	</entry>
	<entry>
		<id>https://www.wikiaiact.it/w139/index.php?title=Allegato_VI&amp;diff=1023</id>
		<title>Allegato VI</title>
		<link rel="alternate" type="text/html" href="https://www.wikiaiact.it/w139/index.php?title=Allegato_VI&amp;diff=1023"/>
		<updated>2024-07-04T10:21:42Z</updated>

		<summary type="html">&lt;p&gt;InsaidewikiAA: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;&amp;lt;big&amp;gt;&amp;lt;big&amp;gt;&amp;lt;big&amp;gt;&#039;&#039;&#039;Procedura di valutazione della conformità basata sul controllo interno&#039;&#039;&#039;&amp;lt;/big&amp;gt;&amp;lt;/big&amp;gt;&amp;lt;/big&amp;gt;&lt;br /&gt;
[[Categoria:Allegati]]&lt;br /&gt;
{{DEFAULTSORT:Allegato VI (Procedura di valutazione della conformità basata sul controllo interno)}}&lt;br /&gt;
{{Nota_Articoli}}&lt;br /&gt;
&lt;br /&gt;
:1. La procedura di valutazione della conformità basata sul controllo interno è la procedura di valutazione della conformità basata sui punti 2, 3 e 4.&lt;br /&gt;
&lt;br /&gt;
:2. Il fornitore verifica la conformità del sistema di gestione della qualità istituito ai requisiti di cui all&#039;articolo 17.&lt;br /&gt;
&lt;br /&gt;
:3. Il fornitore esamina le informazioni contenute nella documentazione tecnica al fine di valutare la conformità del sistema di IA ai pertinenti requisiti essenziali di cui al capo III, sezione 2.&lt;br /&gt;
&lt;br /&gt;
:4. Il fornitore verifica inoltre che il processo di progettazione e sviluppo del sistema di IA e il monitoraggio successivo alla sua immissione sul mercato di cui all&#039;articolo 72 siano coerenti con la documentazione tecnica.&lt;/div&gt;</summary>
		<author><name>InsaidewikiAA</name></author>
	</entry>
	<entry>
		<id>https://www.wikiaiact.it/w139/index.php?title=Allegato_V&amp;diff=1022</id>
		<title>Allegato V</title>
		<link rel="alternate" type="text/html" href="https://www.wikiaiact.it/w139/index.php?title=Allegato_V&amp;diff=1022"/>
		<updated>2024-07-04T10:20:54Z</updated>

		<summary type="html">&lt;p&gt;InsaidewikiAA: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;&amp;lt;big&amp;gt;&amp;lt;big&amp;gt;&amp;lt;big&amp;gt;&#039;&#039;&#039;Dichiarazione di conformità UE&#039;&#039;&#039;&amp;lt;/big&amp;gt;&amp;lt;/big&amp;gt;&amp;lt;/big&amp;gt;&lt;br /&gt;
[[Categoria:Allegati]]&lt;br /&gt;
{{DEFAULTSORT:Allegato V (Dichiarazione di conformità UE)}}&lt;br /&gt;
{{Nota_Articoli}}&lt;br /&gt;
&lt;br /&gt;
La dichiarazione di conformità UE di cui all&#039;articolo 47 deve contenere tutte le informazioni seguenti:&lt;br /&gt;
:1. il nome e il tipo del sistema di IA e qualsiasi ulteriore riferimento inequivocabile che ne consenta l&#039;identificazione e la tracciabilità;&lt;br /&gt;
&lt;br /&gt;
:2. il nome e l&#039;indirizzo del fornitore o, ove applicabile, del suo rappresentante autorizzato;&lt;br /&gt;
&lt;br /&gt;
:3. un&#039;attestazione secondo cui la dichiarazione di conformità UE di cui all’articolo 47 è rilasciata sotto la responsabilità esclusiva del fornitore;&lt;br /&gt;
&lt;br /&gt;
:4. un&#039;attestazione secondo cui il sistema di IA è conforme al presente regolamento e, ove applicabile, a qualsiasi altra disposizione pertinente del diritto dell&#039;Unione che preveda il rilascio di una dichiarazione di conformità UE di cui all’articolo 47;&lt;br /&gt;
&lt;br /&gt;
:5. se un sistema di IA comporta il trattamento di dati personali, una dichiarazione attestante che tale sistema di IA è conforme ai regolamenti (UE) 2016/679 e (UE) 2018/1725 e alla direttiva (UE) 2016/680;&lt;br /&gt;
&lt;br /&gt;
:6. i riferimenti alle pertinenti norme armonizzate utilizzate o a qualsiasi altra specifica comune in relazione alla quale è dichiarata la conformità;&lt;br /&gt;
&lt;br /&gt;
:7. ove applicabile, il nome e il numero di identificazione dell&#039;organismo notificato, una descrizione della procedura di valutazione della conformità applicata e l&#039;identificazione del certificato rilasciato;&lt;br /&gt;
&lt;br /&gt;
:8. il luogo e la data di rilascio della dichiarazione, il nome e la funzione della persona che firma la dichiarazione nonché un&#039;indicazione della persona a nome o per conto della quale ha firmato, e la firma.&lt;/div&gt;</summary>
		<author><name>InsaidewikiAA</name></author>
	</entry>
	<entry>
		<id>https://www.wikiaiact.it/w139/index.php?title=Allegato_V&amp;diff=1021</id>
		<title>Allegato V</title>
		<link rel="alternate" type="text/html" href="https://www.wikiaiact.it/w139/index.php?title=Allegato_V&amp;diff=1021"/>
		<updated>2024-07-04T10:20:34Z</updated>

		<summary type="html">&lt;p&gt;InsaidewikiAA: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;&amp;lt;big&amp;gt;&amp;lt;big&amp;gt;&amp;lt;big&amp;gt;&#039;&#039;&#039;Dichiarazione di conformità UE&#039;&#039;&#039;&amp;lt;/big&amp;gt;&amp;lt;/big&amp;gt;&amp;lt;/big&amp;gt;&lt;br /&gt;
[[Categoria:Allegati]]&lt;br /&gt;
{{DEFAULTSORT:Allegato IV (Dichiarazione di conformità UE)}}&lt;br /&gt;
{{Nota_Articoli}}&lt;br /&gt;
&lt;br /&gt;
La dichiarazione di conformità UE di cui all&#039;articolo 47 deve contenere tutte le informazioni seguenti:&lt;br /&gt;
:1. il nome e il tipo del sistema di IA e qualsiasi ulteriore riferimento inequivocabile che ne consenta l&#039;identificazione e la tracciabilità;&lt;br /&gt;
&lt;br /&gt;
:2. il nome e l&#039;indirizzo del fornitore o, ove applicabile, del suo rappresentante autorizzato;&lt;br /&gt;
&lt;br /&gt;
:3. un&#039;attestazione secondo cui la dichiarazione di conformità UE di cui all’articolo 47 è rilasciata sotto la responsabilità esclusiva del fornitore;&lt;br /&gt;
&lt;br /&gt;
:4. un&#039;attestazione secondo cui il sistema di IA è conforme al presente regolamento e, ove applicabile, a qualsiasi altra disposizione pertinente del diritto dell&#039;Unione che preveda il rilascio di una dichiarazione di conformità UE di cui all’articolo 47;&lt;br /&gt;
&lt;br /&gt;
:5. se un sistema di IA comporta il trattamento di dati personali, una dichiarazione attestante che tale sistema di IA è conforme ai regolamenti (UE) 2016/679 e (UE) 2018/1725 e alla direttiva (UE) 2016/680;&lt;br /&gt;
&lt;br /&gt;
:6. i riferimenti alle pertinenti norme armonizzate utilizzate o a qualsiasi altra specifica comune in relazione alla quale è dichiarata la conformità;&lt;br /&gt;
&lt;br /&gt;
:7. ove applicabile, il nome e il numero di identificazione dell&#039;organismo notificato, una descrizione della procedura di valutazione della conformità applicata e l&#039;identificazione del certificato rilasciato;&lt;br /&gt;
&lt;br /&gt;
:8. il luogo e la data di rilascio della dichiarazione, il nome e la funzione della persona che firma la dichiarazione nonché un&#039;indicazione della persona a nome o per conto della quale ha firmato, e la firma.&lt;/div&gt;</summary>
		<author><name>InsaidewikiAA</name></author>
	</entry>
	<entry>
		<id>https://www.wikiaiact.it/w139/index.php?title=Allegato_IV&amp;diff=1020</id>
		<title>Allegato IV</title>
		<link rel="alternate" type="text/html" href="https://www.wikiaiact.it/w139/index.php?title=Allegato_IV&amp;diff=1020"/>
		<updated>2024-07-04T10:19:29Z</updated>

		<summary type="html">&lt;p&gt;InsaidewikiAA: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;&amp;lt;big&amp;gt;&amp;lt;big&amp;gt;&amp;lt;big&amp;gt;&#039;&#039;&#039;Documentazione tecnica di cui all&#039;articolo 11, paragrafo 1&#039;&#039;&#039;&amp;lt;/big&amp;gt;&amp;lt;/big&amp;gt;&amp;lt;/big&amp;gt;&lt;br /&gt;
[[Categoria:Allegati]]&lt;br /&gt;
{{DEFAULTSORT:Allegato IV (Documentazione tecnica di cui all&#039;articolo 11, paragrafo 1)}}&lt;br /&gt;
{{Nota_Articoli}}&lt;br /&gt;
&lt;br /&gt;
La documentazione tecnica di cui all&#039;articolo 11, paragrafo 1, deve includere almeno le seguenti&lt;br /&gt;
informazioni, a seconda dell&#039;applicabilità al pertinente sistema di IA.&lt;br /&gt;
:1. Una descrizione generale del sistema di IA comprendente:&lt;br /&gt;
: a) la finalità prevista, il nome del fornitore e la versione del sistema che indichi il suo rapporto con le versioni precedenti;&lt;br /&gt;
: b) il modo in cui il sistema di IA interagisce o può essere utilizzato per interagire con hardware o software, compresi altri sistemi di IA, che non fanno parte del sistema di IA stesso, ove applicabile;&lt;br /&gt;
: c) le versioni dei pertinenti software o firmware e qualsiasi requisito relativo all&#039;aggiornamento della versione;&lt;br /&gt;
: d) la descrizione di tutte le forme in cui il sistema di IA è immesso sul mercato o messo in servizio, quali pacchetti software incorporati nell&#039;hardware, download o API;&lt;br /&gt;
: e) la descrizione dell&#039;hardware su cui è destinato a operare il sistema di IA;&lt;br /&gt;
: f) se il sistema di IA è un componente di prodotti, le fotografie o le illustrazioni che mostrino le caratteristiche esterne, la marcatura e il layout interno di tali prodotti;&lt;br /&gt;
: g) una descrizione di base dell&#039;interfaccia utente fornita al deployer;&lt;br /&gt;
: h) le istruzioni per l&#039;uso destinate al deployer e una descrizione di base dell&#039;interfaccia utente fornita al deployer, se applicabile.&lt;br /&gt;
&lt;br /&gt;
:2. Una descrizione dettagliata degli elementi del sistema di IA e del processo relativo al suo sviluppo, compresi:&lt;br /&gt;
: a) i metodi applicati e le azioni eseguite per lo sviluppo del sistema di IA, compresi, ove opportuno, il ricorso a sistemi o strumenti preaddestrati forniti da terzi e il modo in cui sono stati utilizzati, integrati o modificati dal fornitore;&lt;br /&gt;
: b) le specifiche di progettazione del sistema, vale a dire la logica generale del sistema di IA e degli algoritmi; le principali scelte di progettazione, comprese le motivazioni e le ipotesi formulate, anche per quanto riguarda le persone o i gruppi di persone sui quali il sistema è destinato a essere utilizzato; le principali scelte di classificazione; gli aspetti che il sistema è progettato per ottimizzare e la pertinenza dei diversi parametri; la descrizione dell&#039;output atteso e della qualità dell&#039;output del sistema; le decisioni in merito a eventuali compromessi posti in essere con riguardo alle soluzioni tecniche adottate per soddisfare i requisiti di cui al capo III, sezione 2;&lt;br /&gt;
: c) la descrizione dell&#039;architettura del sistema che spiega in che modo i componenti software si basano l&#039;uno sull&#039;altro o si alimentano reciprocamente e si integrano nel processo complessivo; le risorse computazionali utilizzate per sviluppare, addestrare, sottoporre a prova e convalidare il sistema di IA;&lt;br /&gt;
: d) ove pertinente, i requisiti in materia di dati mediante schede tecniche che descrivono le metodologie e le tecniche di addestramento e i set di dati di addestramento utilizzati, comprese una descrizione generale di tali set di dati e le informazioni sulla loro origine, sul loro ambito di applicazione e sulle loro principali caratteristiche; le modalità di ottenimento e di selezione dei dati; le procedure di etichettatura, ad esempio per l&#039;apprendimento supervisionato, e le metodologie di pulizia dei dati, ad esempio il rilevamento di valori anomali (outlier);&lt;br /&gt;
: e) la valutazione delle misure di sorveglianza umana necessarie in conformità dell&#039;articolo 14, compresa una valutazione delle misure tecniche necessarie per facilitare l&#039;interpretazione degli output dei sistemi di IA da parte dei deployer, in conformità dell&#039;articolo 13, paragrafo 3, lettera d);&lt;br /&gt;
: f) ove applicabile, una descrizione dettagliata delle modifiche predeterminate del sistema di IA e delle sue prestazioni, unitamente a tutte le informazioni pertinenti relative alle soluzioni tecniche adottate per garantire la conformità costante del sistema di IA ai requisiti pertinenti di cui al capo III, sezione 2;&lt;br /&gt;
: g) le procedure di convalida e di prova utilizzate, comprese le informazioni sui dati d convalida e di prova utilizzati e sulle loro principali caratteristiche; le metriche utilizzate per misurare l&#039;accuratezza, la robustezza ▌ e la conformità ad altri requisiti pertinenti di cui al capo III, sezione 2, nonché gli impatti potenzialmente discriminatori; i log delle prove e tutte le relazioni di prova corredate di data e firma delle persone responsabili, anche per quanto riguarda le modifiche predeterminate di cui alla lettera f);&lt;br /&gt;
: h) le misure di cibersicurezza poste in essere.&lt;br /&gt;
&lt;br /&gt;
:3. Informazioni dettagliate sul monitoraggio, sul funzionamento e sul controllo del sistema di IA, in particolare per quanto riguarda: le sue capacità e limitazioni in termini di prestazioni, compresi i gradi di accuratezza relativi a determinate persone o determinati gruppi di persone sui quali il sistema è destinato a essere utilizzato e il livello di accuratezza complessivo atteso in relazione alla finalità prevista del sistema; i prevedibili risultati indesiderati e fonti di rischio per la salute, la sicurezza e i diritti fondamentali, nonché di rischio di discriminazione in considerazione della finalità prevista del sistema di IA; le misure di sorveglianza umana necessarie in conformità dell&#039;articolo 14, comprese le misure tecniche poste in essere per facilitare l&#039;interpretazione degli output dei sistemi di IA da parte dei deployer; le specifiche relative ai dati di input, se del caso.&lt;br /&gt;
&lt;br /&gt;
:4. Una descrizione dell&#039;adeguatezza delle metriche di prestazione per il sistema di IA specifico.&lt;br /&gt;
&lt;br /&gt;
:5. Una descrizione dettagliata del sistema di gestione dei rischi in conformità dell&#039;articolo 9.&lt;br /&gt;
&lt;br /&gt;
:6. Una descrizione delle modifiche pertinenti apportate dal fornitore al sistema durante il suo ciclo di vita.&lt;br /&gt;
&lt;br /&gt;
:7. Un elenco delle norme armonizzate applicate integralmente o in parte i cui riferimenti sono stati pubblicati nella Gazzetta ufficiale dell&#039;Unione europea; nei casi in cui tali norme armonizzate non sono state applicate, una descrizione dettagliata delle soluzioni adottate per soddisfare i requisiti di cui al capo III, sezione 2, compreso un elenco delle altre norme e specifiche tecniche pertinenti applicate.&lt;br /&gt;
&lt;br /&gt;
:8. Una copia della dichiarazione di conformità UE di cui all’articolo 47.&lt;br /&gt;
&lt;br /&gt;
:9. Una descrizione dettagliata del sistema predisposto per valutare le prestazioni del sistema di IA nella fase successiva all&#039;immissione sul mercato in conformità dell&#039;articolo 72, compreso il piano di monitoraggio successivo all&#039;immissione sul mercato di cui all&#039;articolo 72, paragrafo 3.&lt;/div&gt;</summary>
		<author><name>InsaidewikiAA</name></author>
	</entry>
	<entry>
		<id>https://www.wikiaiact.it/w139/index.php?title=Allegato_II&amp;diff=1019</id>
		<title>Allegato II</title>
		<link rel="alternate" type="text/html" href="https://www.wikiaiact.it/w139/index.php?title=Allegato_II&amp;diff=1019"/>
		<updated>2024-07-04T10:15:09Z</updated>

		<summary type="html">&lt;p&gt;InsaidewikiAA: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;&amp;lt;big&amp;gt;&amp;lt;big&amp;gt;&amp;lt;big&amp;gt;&#039;&#039;&#039;Elenco dei reati di cui all&#039;articolo 5, paragrafo 1, primo comma, lettera h), punto iii)&#039;&#039;&#039;&amp;lt;/big&amp;gt;&amp;lt;/big&amp;gt;&amp;lt;/big&amp;gt;&lt;br /&gt;
[[Categoria:Allegati]]&lt;br /&gt;
{{DEFAULTSORT:Allegato II (Elenco dei reati di cui all&#039;articolo 5, paragrafo 1, primo comma, lettera h), punto iii))}}&lt;br /&gt;
{{Nota_Articoli}}&lt;br /&gt;
Reati di cui all&#039;articolo 5, paragrafo 1, primo comma, lettera h), punto iii):&lt;br /&gt;
:-terrorismo, &lt;br /&gt;
:-tratta di esseri umani,&lt;br /&gt;
:-sfruttamento sessuale di minori e pornografia minorile,&lt;br /&gt;
:-traffico illecito di stupefacenti o sostanze psicotrope,&lt;br /&gt;
:-traffico illecito di armi, munizioni ed esplosivi,&lt;br /&gt;
:-omicidio volontario, lesioni gravi,&lt;br /&gt;
:-traffico illecito di organi e tessuti umani,&lt;br /&gt;
:-traffico illecito di materie nucleari e radioattive,&lt;br /&gt;
:-sequestro, detenzione illegale e presa di ostaggi,&lt;br /&gt;
:-reati che rientrano nella competenza giurisdizionale della Corte penale internazionale,&lt;br /&gt;
:-illecita cattura di aeromobile o nave,&lt;br /&gt;
:-violenza sessuale,&lt;br /&gt;
:-reato ambientale,&lt;br /&gt;
:-rapina organizzata o a mano armata,&lt;br /&gt;
:-sabotaggio,&lt;br /&gt;
:-partecipazione a un&#039;organizzazione criminale coinvolta in uno o più dei reati elencati sopra&lt;/div&gt;</summary>
		<author><name>InsaidewikiAA</name></author>
	</entry>
	<entry>
		<id>https://www.wikiaiact.it/w139/index.php?title=Allegato_III&amp;diff=1018</id>
		<title>Allegato III</title>
		<link rel="alternate" type="text/html" href="https://www.wikiaiact.it/w139/index.php?title=Allegato_III&amp;diff=1018"/>
		<updated>2024-07-04T10:12:38Z</updated>

		<summary type="html">&lt;p&gt;InsaidewikiAA: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;&amp;lt;big&amp;gt;&amp;lt;big&amp;gt;&amp;lt;big&amp;gt;&#039;&#039;&#039;Sistemi di IA ad alto rischio di cui all&#039;articolo 6, paragrafo 2&#039;&#039;&#039;&amp;lt;/big&amp;gt;&amp;lt;/big&amp;gt;&amp;lt;/big&amp;gt;&lt;br /&gt;
[[Categoria:Allegati]]&lt;br /&gt;
{{DEFAULTSORT:Allegato III (Sistemi di IA ad alto rischio di cui all&#039;articolo 6, paragrafo 2)}}&lt;br /&gt;
{{Nota_Articoli}}&lt;br /&gt;
I sistemi di IA ad alto rischio a norma dell&#039;articolo 6, paragrafo 2, sono i sistemi di IA elencati in uno dei settori indicati di seguito.&amp;lt;br /&amp;gt;&lt;br /&gt;
:1. Biometria, nella misura in cui il pertinente diritto dell&#039;Unione o nazionale ne permette l&#039;uso:&lt;br /&gt;
::a) i sistemi di identificazione biometrica remota.&lt;br /&gt;
:Non vi rientrano i sistemi di IA destinati a essere utilizzati per la verifica biometrica la cui unica finalità è confermare che una determinata persona fisica è la persona che dice di essere;&lt;br /&gt;
::b) i sistemi di IA destinati a essere utilizzati per la categorizzazione biometrica in base ad attributi o caratteristiche sensibili protetti basati sulla deduzione di tali attributi o caratteristiche;&lt;br /&gt;
::c) i sistemi di IA destinati a essere utilizzati per il riconoscimento delle emozioni.&lt;br /&gt;
:2. Infrastrutture critiche:&lt;br /&gt;
:i sistemi di IA destinati a essere utilizzati come componenti di sicurezza nella gestione e nel funzionamento delle infrastrutture digitali critiche, del traffico stradale o nella fornitura di acqua, gas, riscaldamento o elettricità.&lt;br /&gt;
:3. Istruzione e formazione professionale:&lt;br /&gt;
::a) i sistemi di IA destinati a essere utilizzati per determinare l&#039;accesso, l&#039;ammissione o l&#039;assegnazione di persone fisiche agli istituti di istruzione e formazione professionale a tutti i livelli;&lt;br /&gt;
::b) i sistemi di IA destinati a essere utilizzati per valutare i risultati dell&#039;apprendimento, anche nei casi in cui tali risultati sono utilizzati per orientare il processo di apprendimento di persone fisiche in istituti di istruzione o formazione professionale a tutti i livelli;&lt;br /&gt;
::c) i sistemi di IA destinati a essere utilizzati per valutare il livello di istruzione adeguato che una persona riceverà o a cui potrà accedere, nel contesto o all&#039;interno di istituti di istruzione o formazione professionale a tutti i livelli;&lt;br /&gt;
::d) i sistemi di IA destinati a essere utilizzati per monitorare e rilevare comportamenti vietati degli studenti durante le prove nel contesto o all&#039;interno di istituti di istruzione e formazione professionale a tutti i livelli.&lt;br /&gt;
:4. Occupazione, gestione dei lavoratori e accesso al lavoro autonomo:&lt;br /&gt;
::a) i sistemi di IA destinati a essere utilizzati per l&#039;assunzione o la selezione di persone fisiche, in particolare per pubblicare annunci di lavoro mirati, analizzare o filtrare le candidature e valutare i candidati;&lt;br /&gt;
::b) i sistemi di IA destinati a essere utilizzati per adottare decisioni riguardanti le condizioni dei rapporti di lavoro, la promozione o cessazione dei rapporti contrattuali di lavoro, per assegnare compiti sulla base del comportamento individuale o dei tratti e delle caratteristiche personali o per monitorare e valutare le prestazioni e il comportamento delle persone nell&#039;ambito di tali rapporti di lavoro.&lt;br /&gt;
:5. Accesso a servizi privati essenziali e a prestazioni e servizi pubblici essenziali e fruizione degli stessi:&lt;br /&gt;
::a) i sistemi di IA destinati a essere utilizzati dalle autorità pubbliche o per conto di autorità pubbliche per valutare l&#039;ammissibilità delle persone fisiche alle prestazioni e ai servizi di assistenza pubblica essenziali, compresi i servizi di assistenza sanitaria, nonché per concedere, ridurre, revocare o recuperare tali prestazioni e servizi;&lt;br /&gt;
::b) i sistemi di IA destinati a essere utilizzati per valutare l&#039;affidabilità creditizia delle persone fisiche o per stabilire il loro merito di credito, a eccezione dei sistemi di IA utilizzati allo scopo di individuare frodi finanziarie;&lt;br /&gt;
::c) i sistemi di IA destinati a essere utilizzati per la valutazione dei rischi e la determinazione dei prezzi in relazione a persone fisiche nel caso di assicurazioni sulla vita e assicurazioni sanitarie;&lt;br /&gt;
::d) i sistemi di IA destinati a essere utilizzati per valutare e classificare le chiamate di emergenza effettuate da persone fisiche o per inviare servizi di emergenza di primo soccorso o per stabilire priorità in merito all&#039;invio di tali servizi, compresi polizia, vigili del fuoco e assistenza medica, nonché per i sistemi di selezione dei pazienti per quanto concerne l&#039;assistenza sanitaria di emergenza;&lt;br /&gt;
:6. Attività di contrasto, nella misura in cui il pertinente diritto dell&#039;Unione o nazionale ne permette l&#039;uso:&lt;br /&gt;
::a) i sistemi di IA destinati a essere utilizzati dalle autorità di contrasto o per loro conto, oppure da istituzioni, organi e organismi dell&#039;Unione a sostegno delle autorità di contrasto o per loro conto, per determinare il rischio per una persona fisica di diventare vittima di reati;&lt;br /&gt;
::b) i sistemi di IA destinati a essere utilizzati dalle autorità di contrasto o per loro conto, oppure da istituzioni, organi e organismi dell&#039;Unione a sostegno delle autorità di contrasto, come poligrafi e strumenti analoghi;&lt;br /&gt;
::c) i sistemi di IA destinati a essere utilizzati dalle autorità di contrasto o per loro conto, oppure da istituzioni, organi e organismi dell&#039;Unione a sostegno delle autorità di contrasto per valutare l&#039;affidabilità degli elementi probatori nel corso delle indagini o del perseguimento di reati;&lt;br /&gt;
::d) i sistemi di IA destinati a essere utilizzati dalle autorità di contrasto o per loro conto, oppure da istituzioni, organi e organismi dell&#039;Unione a sostegno delle autorità di contrasto, per determinare il rischio di commissione del reato o di recidiva in relazione a una persona fisica non solo sulla base della profilazione delle persone fisiche di cui all&#039;articolo 3, paragrafo 4, della direttiva (UE) 2016/680 o per valutare i tratti e le caratteristiche della personalità o il comportamento criminale pregresso di persone fisiche o gruppi;&lt;br /&gt;
::e) i sistemi di IA destinati a essere utilizzati dalle autorità di contrasto o per loro conto, oppure da istituzioni, organi e organismi dell&#039;Unione a sostegno delle autorità di contrasto, per effettuare la profilazione delle persone fisiche di cui all&#039;articolo 3, paragrafo 4, della direttiva (UE) 2016/680 nel corso dell&#039;indagine, dell&#039;accertamento e del perseguimento di reati.&lt;br /&gt;
:7. Migrazione, asilo e gestione del controllo delle frontiere, nella misura in cui il pertinente diritto dell&#039;Unione o nazionale ne permette l&#039;uso:&lt;br /&gt;
::a) i sistemi di IA destinati a essere utilizzati dalle autorità pubbliche competenti, o per loro conto, o da istituzioni, organi e organismi dell&#039;Unione, come poligrafi o strumenti analoghi;&lt;br /&gt;
::b) i sistemi di IA destinati a essere utilizzati dalle autorità pubbliche competenti o per loro conto, oppure da istituzioni, organi e organismi dell&#039;Unione, per valutare un rischio (compresi un rischio per la sicurezza, un rischio di migrazione irregolare o un rischio per la salute) posto da una persona fisica che intende entrare o è entrata nel territorio di uno Stato membro;&lt;br /&gt;
::c) i sistemi di IA destinati a essere usati dalle autorità pubbliche competenti o per loro conto, oppure da istituzioni, organi e organismi dell&#039;Unione, per assistere le autorità pubbliche competenti nell&#039;esame delle domande di asilo, di visto o di permesso di soggiorno e per i relativi reclami per quanto riguarda l&#039;ammissibilità delle persone  fisiche che richiedono tale status, compresa le valutazioni correlate dell&#039;affidabilità degli elementi probatori;&lt;br /&gt;
::d) i sistemi di IA destinati a essere usati dalle autorità pubbliche competenti o per loro conto, o da istituzioni, organi e organismi dell&#039;Unione, nel contesto della migrazione, dell&#039;asilo o della gestione del controllo delle frontiere, al fine di individuare, riconoscere o identificare persone fisiche, a eccezione della verifica dei documenti di viaggio.&lt;br /&gt;
:8. Amministrazione della giustizia e processi democratici:&lt;br /&gt;
::a) i sistemi di IA destinati a essere usati da un&#039;autorità giudiziaria o per suo conto per assistere un&#039;autorità giudiziaria nella ricerca e nell&#039;interpretazione dei fatti e del diritto e nell&#039;applicazione della legge a una serie concreta di fatti, o a essere utilizzati in modo analogo nella risoluzione alternativa delle controversie;&lt;br /&gt;
::b) i sistemi di IA destinati a essere utilizzati per influenzare l&#039;esito di un&#039;elezione o di un referendum o il comportamento di voto delle persone fisiche nell&#039;esercizio del loro voto alle elezioni o ai referendum. Sono esclusi i sistemi di IA ai cui output le persone fisiche non sono direttamente esposte, come gli strumenti utilizzati per organizzare, ottimizzare e strutturare le campagne politiche da un punto di vista amministrativo e logistico.&lt;/div&gt;</summary>
		<author><name>InsaidewikiAA</name></author>
	</entry>
	<entry>
		<id>https://www.wikiaiact.it/w139/index.php?title=Allegato_I&amp;diff=1017</id>
		<title>Allegato I</title>
		<link rel="alternate" type="text/html" href="https://www.wikiaiact.it/w139/index.php?title=Allegato_I&amp;diff=1017"/>
		<updated>2024-07-04T10:11:36Z</updated>

		<summary type="html">&lt;p&gt;InsaidewikiAA: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;&amp;lt;big&amp;gt;&amp;lt;big&amp;gt;&amp;lt;big&amp;gt;&#039;&#039;&#039;Elenco della normativa di armonizzazione dell&#039;Unione&#039;&#039;&#039;&amp;lt;/big&amp;gt;&amp;lt;/big&amp;gt;&amp;lt;/big&amp;gt;&lt;br /&gt;
[[Categoria:Allegati]]&lt;br /&gt;
{{DEFAULTSORT:Allegato I (Elenco della normativa di armonizzazione dell&#039;Unione)}}&lt;br /&gt;
{{Nota_Articoli}}&lt;br /&gt;
&#039;&#039;&#039;&#039;&#039;Sezione A - Elenco della normativa di armonizzazione dell&#039;Unione in base al nuovo quadro legislativo&#039;&#039;&#039;&#039;&#039;&amp;lt;br /&amp;gt;&lt;br /&gt;
1. Direttiva 2006/42/CE del Parlamento europeo e del Consiglio, del 17 maggio 2006, relativa alle macchine e che modifica la direttiva 95/16/CE (GU L 157 del 9.6.2006, pag. 24) [abrogata dal regolamento sui prodotti macchina];&amp;lt;br /&amp;gt;&lt;br /&gt;
2. direttiva 2009/48/CE del Parlamento europeo e del Consiglio, del 18 giugno 2009, sulla sicurezza dei giocattoli (GU L 170 del 30.6.2009, pag. 1);&amp;lt;br /&amp;gt;&lt;br /&gt;
3. direttiva 2013/53/UE del Parlamento europeo e del Consiglio, del 20 novembre 2013, relativa alle imbarcazioni da diporto e alle moto d&#039;acqua e che abroga la direttiva 94/25/CE (GU L 354 del 28.12.2013, pag. 90);&amp;lt;br /&amp;gt;&lt;br /&gt;
4. direttiva 2014/33/UE del Parlamento europeo e del Consiglio, del 26 febbraio 2014, per l&#039;armonizzazione delle legislazioni degli Stati membri relative agli ascensori e ai componenti di sicurezza per ascensori (GU L 96 del 29.3.2014, pag. 251);&amp;lt;br /&amp;gt;&lt;br /&gt;
5. direttiva 2014/34/UE del Parlamento europeo e del Consiglio, del 26 febbraio 2014, concernente l&#039;armonizzazione delle legislazioni degli Stati membri relative agli apparecchi e sistemi di protezione destinati a essere utilizzati in atmosfera potenzialmente esplosiva (GU L 96 del 29.3.2014, pag. 309);&amp;lt;br /&amp;gt;&lt;br /&gt;
6. direttiva 2014/53/UE del Parlamento europeo e del Consiglio, del 16 aprile 2014, concernente l&#039;armonizzazione delle legislazioni degli Stati membri relative alla messa a disposizione sul mercato di apparecchiature radio e che abroga la direttiva 1999/5/CE (GU L 153 del 22.5.2014, pag. 62);&amp;lt;br /&amp;gt;&lt;br /&gt;
7. direttiva 2014/68/UE del Parlamento europeo e del Consiglio, del 15 maggio 2014, concernente l&#039;armonizzazione delle legislazioni degli Stati membri relative alla messa a disposizione sul mercato di attrezzature a pressione (GU L 189 del 27.6.2014, pag. 164);&amp;lt;br /&amp;gt;&lt;br /&gt;
8. regolamento (UE) 2016/424 del Parlamento europeo e del Consiglio, del 9 marzo 2016, relativo agli impianti a fune e che abroga la direttiva 2000/9/CE (GU L 81 del 31.3.2016, pag. 1);&amp;lt;br /&amp;gt;&lt;br /&gt;
9. regolamento (UE) 2016/425 del Parlamento europeo e del Consiglio, del 9 marzo 2016, sui dispositivi di protezione individuale e che abroga la direttiva 89/686/CEE del Consiglio (GU L 81 del 31.3.2016, pag. 51);&amp;lt;br /&amp;gt;&lt;br /&gt;
10. regolamento (UE) 2016/426 del Parlamento europeo e del Consiglio, del 9 marzo 2016, sugli apparecchi che bruciano carburanti gassosi e che abroga la direttiva 2009/142/CE (GU L 81 del 31.3.2016, pag. 99);&amp;lt;br /&amp;gt;&lt;br /&gt;
11. regolamento (UE) 2017/745 del Parlamento europeo e del Consiglio, del 5 aprile 2017, relativo ai dispositivi medici, che modifica la direttiva 2001/83/CE, il regolamento (CE) n. 178/2002 e il regolamento (CE) n. 1223/2009 e che abroga le direttive 90/385/CEE e 93/42/CEE del Consiglio (GU L 117 del 5.5.2017, pag. 1);&amp;lt;br /&amp;gt;&lt;br /&gt;
12. regolamento (UE) 2017/746 del Parlamento europeo e del Consiglio, del 5 aprile 2017, relativo ai dispositivi medico-diagnostici in vitro e che abroga la direttiva 98/79/CE e la decisione 2010/227/UE della Commissione (GU L 117 del 5.5.2017, pag. 176).&amp;lt;br /&amp;gt;&lt;br /&gt;
&amp;lt;br /&amp;gt;&lt;br /&gt;
&#039;&#039;&#039;&#039;&#039;Sezione B – Elenco di altre normative di armonizzazione dell&#039;Unione&#039;&#039;&#039;&#039;&#039;&amp;lt;br /&amp;gt;&lt;br /&gt;
13. Regolamento (CE) n. 300/2008 del Parlamento europeo e del Consiglio, dell&#039;11 marzo 2008, che istituisce norme comuni per la sicurezza dell&#039;aviazione civile e che abroga il regolamento (CE) n. 2320/2002 (GU L 97 del 9.4.2008, pag. 72);&amp;lt;br /&amp;gt;&lt;br /&gt;
14. regolamento (UE) n. 168/2013 del Parlamento europeo e del Consiglio, del 15 gennaio 2013, relativo all&#039;omologazione e alla vigilanza del mercato dei veicoli a motore a due o tre ruote e dei quadricicli (GU L 60 del 2.3.2013, pag. 52);&amp;lt;br /&amp;gt;&lt;br /&gt;
15. regolamento (UE) n. 167/2013 del Parlamento europeo e del Consiglio, del 5 febbraio 2013, relativo all&#039;omologazione e alla vigilanza del mercato dei veicoli agricoli e forestali (GU L 60 del 2.3.2013, pag. 1);&amp;lt;br /&amp;gt;&lt;br /&gt;
16. direttiva 2014/90/UE del Parlamento europeo e del Consiglio, del 23 luglio 2014, sull&#039;equipaggiamento marittimo e che abroga la direttiva 96/98/CE del Consiglio (GU L 257 del 28.8.2014, pag. 146);&amp;lt;br /&amp;gt;&lt;br /&gt;
17. direttiva (UE) 2016/797 del Parlamento europeo e del Consiglio, dell&#039;11 maggio 2016, relativa all&#039;interoperabilità del sistema ferroviario dell&#039;Unione europea (GU L 138 del 26.5.2016, pag. 44);&amp;lt;br /&amp;gt;&lt;br /&gt;
18. regolamento (UE) 2018/858 del Parlamento europeo e del Consiglio, del 30 maggio 2018, relativo all&#039;omologazione e alla vigilanza del mercato dei veicoli a motore e dei loro rimorchi, nonché dei sistemi, dei componenti e delle entità tecniche indipendenti destinati a tali veicoli, che modifica i regolamenti (CE) n. 715/2007 e (CE) n. 595/2009 e abroga la direttiva 2007/46/CE (GU L 151 del 14.6.2018, pag. 1);&amp;lt;br /&amp;gt;&lt;br /&gt;
19. regolamento (UE) 2019/2144 del Parlamento europeo e del Consiglio, del 27 novembre 2019, relativo ai requisiti di omologazione dei veicoli a motore e dei loro rimorchi, nonché di sistemi, componenti ed entità tecniche destinati a tali veicoli, per quanto riguarda la loro sicurezza generale e la protezione degli occupanti dei veicoli e degli altri utenti vulnerabili della strada, che modifica il regolamento (UE) 2018/858 del Parlamento europeo e del Consiglio e abroga i regolamenti (CE) n. 78/2009, (CE) n. 79/2009 e (CE) n. 661/2009 del Parlamento europeo e del Consiglio e i regolamenti (CE) n. 631/2009, (UE) n. 406/2010, (UE) n. 672/2010, (UE) n. 1003/2010,(UE) n. 1005/2010, (UE) n. 1008/2010, (UE) n. 1009/2010, (UE) n. 19/2011,(UE) n. 109/2011, (UE) n. 458/2011, (UE) n. 65/2012, (UE) n. 130/2012,(UE) n. 347/2012, (UE) n. 351/2012, (UE) n. 1230/2012 e (UE) 2015/166 della Commissione (GU L 325 del 16.12.2019, pag. 1);&amp;lt;br /&amp;gt;&lt;br /&gt;
20. regolamento (UE) 2018/1139 del Parlamento europeo e del Consiglio, del 4 luglio 2018, recante norme comuni nel settore dell&#039;aviazione civile, che istituisce un&#039;Agenzia dell&#039;Unione europea per la sicurezza aerea e che modifica i regolamenti (CE) n. 2111/2005, (CE) n. 1008/2008, (UE) n. 996/2010, (UE) n. 376/2014 e le direttive 2014/30/UE e 2014/53/UE del Parlamento europeo e del Consiglio, e abroga i regolamenti (CE) n. 552/2004 e (CE) n. 216/2008 del Parlamento europeo e del Consiglio e il regolamento (CEE) n. 3922/91 del Consiglio (GU L 212 del 22.8.2018, pag. 1), nella misura in cui si tratta della progettazione, della produzione e dell&#039;immissione sul mercato degli aeromobili di cui all&#039;articolo 2, paragrafo 1, lettere a) e b), relativamente agli aeromobili senza equipaggio e ai loro motori, eliche, parti e dispositivi di controllo remoto.&amp;lt;br /&amp;gt;&lt;/div&gt;</summary>
		<author><name>InsaidewikiAA</name></author>
	</entry>
	<entry>
		<id>https://www.wikiaiact.it/w139/index.php?title=Art.113&amp;diff=964</id>
		<title>Art.113</title>
		<link rel="alternate" type="text/html" href="https://www.wikiaiact.it/w139/index.php?title=Art.113&amp;diff=964"/>
		<updated>2024-07-02T11:25:11Z</updated>

		<summary type="html">&lt;p&gt;InsaidewikiAA: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;&amp;lt;big&amp;gt;&amp;lt;big&amp;gt;&amp;lt;big&amp;gt;&#039;&#039;&#039;Entrata in vigore e applicazione&#039;&#039;&#039;&amp;lt;/big&amp;gt;&amp;lt;/big&amp;gt;&amp;lt;/big&amp;gt;&lt;br /&gt;
[[Categoria:Articoli]]&lt;br /&gt;
{{DEFAULTSORT:Art.113 (Entrata in vigore e applicazione)}}&lt;br /&gt;
{{Nota_Articoli}}&lt;br /&gt;
&lt;br /&gt;
Il presente regolamento entra in vigore il ventesimo giorno successivo alla pubblicazione nella &#039;&#039;Gazzetta ufficiale dell&#039;Unione europea&#039;&#039;. &amp;lt;br /&amp;gt; &lt;br /&gt;
Si applica a decorrere dal &#039;&#039;&#039;&#039;&#039;... [24 mesi dalla data di entrata in vigore del presente regolamento]&#039;&#039;&#039;&#039;&#039;. &amp;lt;br /&amp;gt; &lt;br /&gt;
Tuttavia:&amp;lt;br /&amp;gt; &lt;br /&gt;
:a) I capi I e II si applicano a decorrere dal &#039;&#039;&#039;&#039;&#039;... [sei mesi dalla data di entrata in vigore del presente regolamento]&#039;&#039;&#039;&#039;&#039;;&lt;br /&gt;
:b) Il capo III, sezione 4, il capo V, il capo VII, il capo XII e l’[[Art.78|articolo 78]] si applicano a decorrere dal &#039;&#039;&#039;&#039;&#039;... [12 mesi dalla data di entrata in vigore del presente regolamento]&#039;&#039;&#039;&#039;&#039;, ad eccezione dell&#039;[[Art.101|articolo 101]];&lt;br /&gt;
:c) L&#039;[[Art.6|articolo 6, paragrafo 1]], e i corrispondenti obblighi di cui al presente regolamento si applicano a decorrere dal&#039;&#039;&#039;&#039;&#039;... [36 mesi dalla data di entrata in vigore del presente regolamento]&#039;&#039;&#039;&#039;&#039;.&amp;lt;br /&amp;gt; &lt;br /&gt;
Il presente regolamento è obbligatorio in tutti i suoi elementi e direttamente applicabile in ciascuno degli Stati membri.&lt;/div&gt;</summary>
		<author><name>InsaidewikiAA</name></author>
	</entry>
	<entry>
		<id>https://www.wikiaiact.it/w139/index.php?title=Art.112&amp;diff=963</id>
		<title>Art.112</title>
		<link rel="alternate" type="text/html" href="https://www.wikiaiact.it/w139/index.php?title=Art.112&amp;diff=963"/>
		<updated>2024-07-02T11:24:42Z</updated>

		<summary type="html">&lt;p&gt;InsaidewikiAA: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;&amp;lt;big&amp;gt;&amp;lt;big&amp;gt;&amp;lt;big&amp;gt;&#039;&#039;&#039;Valutazione e riesame&#039;&#039;&#039;&amp;lt;/big&amp;gt;&amp;lt;/big&amp;gt;&amp;lt;/big&amp;gt;&lt;br /&gt;
[[Categoria:Articoli]]&lt;br /&gt;
{{DEFAULTSORT:Art.112 (Valutazione e riesame)}}&lt;br /&gt;
{{Nota_Articoli}}&lt;br /&gt;
&lt;br /&gt;
1. La Commissione valuta la necessità di modificare l&#039;elenco stabilito nell’[[Allegato III|allegato III]] e l&#039;elenco di pratiche di IA vietate di cui all&#039;[[Art.5|articolo 5]] una volta all&#039;anno dopo l&#039;entrata in vigore del presente regolamento e fino al termine del periodo della delega di potere di cui all&#039;[[Art.97|articolo 97]]. La Commissione trasmette i risultati della valutazione al Parlamento europeo e al Consiglio. &amp;lt;br /&amp;gt; &lt;br /&gt;
2. Entro &#039;&#039;&#039;&#039;&#039;... [quattro anni dalla data di entrata in vigore del presente regolamento]&#039;&#039;&#039;&#039;&#039; e successivamente ogni quattro anni, la Commissione valuta e riferisce al Parlamento europeo e al Consiglio in merito a quanto segue:&lt;br /&gt;
:a) la necessità di modifiche che amplino le rubriche settoriali esistenti o ne aggiungano di nuove all&#039;[[Allegato III|allegato III]];&lt;br /&gt;
:b) modifiche dell&#039;elenco dei sistemi di IA che richiedono ulteriori misure di trasparenza di cui all&#039;[[Art.50|articolo 50]];&lt;br /&gt;
:c) modifiche volte a migliorare l&#039;efficacia del sistema di supervisione e di governance.&amp;lt;br /&amp;gt; &lt;br /&gt;
3. Entro &#039;&#039;&#039;&#039;&#039;... [cinque anni dalla data di entrata in vigore del presente regolamento]&#039;&#039;&#039;&#039;&#039; e successivamente ogni quattro anni, la Commissione trasmette al Parlamento europeo e al Consiglio una relazione di valutazione e sul riesame del presente regolamento. La relazione include una valutazione in merito alla struttura di esecuzione e all&#039;eventuale necessità di un&#039;agenzia dell&#039;Unione che ponga rimedio alle carenze individuate. Sulla base dei risultati, la relazione è corredata, se del caso, di una proposta di modifica del presente regolamento. Le relazioni sono rese pubbliche.&amp;lt;br /&amp;gt; &lt;br /&gt;
4. Le relazioni di cui al paragrafo 2 dedicano particolare attenzione agli aspetti seguenti:&lt;br /&gt;
:a) lo stato delle risorse finanziarie, tecniche e umane necessarie alle autorità nazionali competenti per lo svolgimento efficace dei compiti loro assegnati a norma del presente regolamento;&lt;br /&gt;
:b) lo stato delle sanzioni, in particolare delle sanzioni amministrative pecuniarie di cui all&#039;[[Art.99|articolo 99, paragrafo 1]], applicate dagli Stati membri in caso di violazione del presente regolamento;&lt;br /&gt;
:c) le norme armonizzate adottate e le specifiche comuni elaborate a sostegno del presente regolamento;&lt;br /&gt;
:d) il numero di imprese che entrano sul mercato dopo l&#039;entrata in vigore del presente regolamento e quante di esse sono PMI.&amp;lt;br /&amp;gt; &lt;br /&gt;
5. Entro &#039;&#039;&#039;&#039;&#039;... [quattro anni dalla data di entrata in vigore del presente regolamento]&#039;&#039;&#039;&#039;, la Commissione valuta il funzionamento dell&#039;ufficio per l&#039;IA, se all&#039;ufficio per l’IA siano stati conferiti poteri e competenze adeguati per svolgere i suoi compiti e se sia pertinente e necessario per la corretta attuazione ed esecuzione del presente regolamento potenziare l&#039;ufficio per l&#039;IA e le sue competenze di esecuzione e aumentarne le risorse. La Commissione trasmette una relazione sulla valutazione di tale ufficio per l’IA al Parlamento europeo e al Consiglio.&amp;lt;br /&amp;gt; &lt;br /&gt;
6. Entro &#039;&#039;&#039;&#039;&#039;... [quattro anni dalla data di entrata in vigore del presente regolamento]&#039;&#039;&#039;&#039;&#039; e successivamente ogni quattro anni, la Commissione presenta una relazione sull&#039;esame dei progressi compiuti riguardo allo sviluppo di prodotti della normazione relativi allo sviluppo efficiente sotto il profilo energetico di modelli di IA per finalità generali e valuta la necessità di ulteriori misure o azioni, comprese misure o azioni vincolanti. La relazione è presentata al Parlamento europeo e al Consiglio ed è resa pubblica.&amp;lt;br /&amp;gt; &lt;br /&gt;
7. Entro &#039;&#039;&#039;&#039;&#039;... [quattro anni dalla data di entrata in vigore del presente regolamento]&#039;&#039;&#039;&#039;&#039; e successivamente ogni tre anni la Commissione valuta l&#039;impatto e l&#039;efficacia dei codici di condotta volontari per la promozione dell&#039;applicazione dei requisiti di cui al capo III, sezione 2, per i sistemi di IA diversi dai sistemi di IA ad alto rischio ed eventualmente di altri requisiti supplementari per i sistemi di IA diversi dai sistemi di IA ad alto rischio, anche per quanto riguarda la sostenibilità ambientale.&amp;lt;br /&amp;gt; &lt;br /&gt;
8. Ai fini dei paragrafi da 1 a 7, il comitato, gli Stati membri e le autorità nazionali competenti forniscono alla Commissione informazioni su sua richiesta e senza indebito ritardo.&amp;lt;br /&amp;gt; &lt;br /&gt;
9. Nello svolgere le valutazioni e i riesami di cui ai paragrafi da 1 a 7, la Commissione tiene conto delle posizioni e delle conclusioni del comitato, del Parlamento europeo e del Consiglio, nonché di altri organismi o fonti pertinenti.&amp;lt;br /&amp;gt; &lt;br /&gt;
10. Se necessario, la Commissione presenta opportune proposte di modifica del presente regolamento tenendo conto, in particolare, degli sviluppi delle tecnologie e dell&#039;effetto dei sistemi di IA sulla salute, sulla sicurezza e sui diritti fondamentali, nonché alla luce dei progressi della società dell&#039;informazione.&amp;lt;br /&amp;gt; &lt;br /&gt;
11. Per orientare le valutazioni e i riesami di cui ai paragrafi da 1 a 7, l&#039;Ufficio per l&#039;IA si impegna a sviluppare una metodologia obiettiva e partecipativa per la valutazione dei livelli di rischio basata sui criteri definiti negli articoli pertinenti e l&#039;inclusione di nuovi sistemi:&lt;br /&gt;
:(a) nell&#039;elenco stabilito nell’[[Allegato III|allegato III]], compreso l&#039;ampliamento delle rubriche settoriali esistenti o l&#039;aggiunta di nuove rubriche settoriali in tale allegato;&lt;br /&gt;
:(b) nell&#039;elenco delle pratiche vietate stabilite all’[[Art.5|articolo 5]]; e&lt;br /&gt;
:(c) nell&#039;elenco dei sistemi di IA che richiedono ulteriori misure di trasparenza a norma dell&#039;[[Art.50|articolo 50]].&amp;lt;br /&amp;gt; &lt;br /&gt;
12. Eventuali modifiche al presente regolamento a norma del paragrafo 10, o i pertinenti atti delegati o di esecuzione, che riguardano la normativa settoriale di armonizzazione dell&#039;Unione elencata nell&#039;[[Allegato I|allegato I, sezione B]], tengono conto delle specificità normative di ciascun settore e dei vigenti meccanismi di governance, valutazione della conformità ed esecuzione e delle autorità da essi stabilite.&amp;lt;br /&amp;gt; &lt;br /&gt;
13. Entro &#039;&#039;&#039;&#039;&#039;... [sette anni dalla data di entrata in vigore del presente regolamento]&#039;&#039;&#039;&#039;&#039;, la Commissione effettua una valutazione dell&#039;esecuzione del presente regolamento e riferisce in merito al Parlamento europeo, al Consiglio e al Comitato economico e sociale europeo, tenendo conto dei primi anni di applicazione del presente regolamento. Sulla base dei risultati, la relazione è accompagnata, se del caso, da una proposta di modifica del presente regolamento in relazione alla struttura di esecuzione e alla necessità di un&#039;agenzia dell&#039;Unione che ponga rimedio alle carenze individuate.&lt;/div&gt;</summary>
		<author><name>InsaidewikiAA</name></author>
	</entry>
	<entry>
		<id>https://www.wikiaiact.it/w139/index.php?title=Art.111&amp;diff=962</id>
		<title>Art.111</title>
		<link rel="alternate" type="text/html" href="https://www.wikiaiact.it/w139/index.php?title=Art.111&amp;diff=962"/>
		<updated>2024-07-02T11:24:05Z</updated>

		<summary type="html">&lt;p&gt;InsaidewikiAA: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;&amp;lt;big&amp;gt;&amp;lt;big&amp;gt;&amp;lt;big&amp;gt;&#039;&#039;&#039;Sistemi di IA già immessi sul mercato o messi in servizio e modelli di IA per finalità generali già immessi sul mercato&#039;&#039;&#039;&amp;lt;/big&amp;gt;&amp;lt;/big&amp;gt;&amp;lt;/big&amp;gt;&lt;br /&gt;
[[Categoria:Articoli]]&lt;br /&gt;
{{DEFAULTSORT:Art.111 (Sistemi di IA già immessi sul mercato o messi in servizio e modelli di IA per finalità generali già immessi sul mercato)}}&lt;br /&gt;
{{Nota_Articoli}}&lt;br /&gt;
&lt;br /&gt;
1. Fatta salva l&#039;applicazione dell&#039;[[Art.5|articolo 5]] di cui all&#039;[[Art.113|articolo 113, paragrafo 3, lettera a)]], i sistemi di IA che sono componenti di sistemi IT su larga scala istituiti dagli atti giuridici elencati nell&#039;allegato X che sono stati immessi sul mercato o messi in servizio prima del &#039;&#039;&#039;&#039;&#039;... [36 mesi dalla data di entrata in vigore del presente regolamento]&#039;&#039;&#039;&#039;&#039;sono resi conformi al presente regolamento entro il 31 dicembre 2030.&amp;lt;br/ &amp;gt;&lt;br /&gt;
Si tiene conto dei requisiti di cui al presente regolamento nella valutazione di ciascun sistema IT su larga scala istituito dagli atti giuridici elencati nell&#039;allegato X da effettuare come previsto in tali atti giuridici e ove tali atti giuridici siano sostituiti o modificati. &amp;lt;br /&amp;gt; &lt;br /&gt;
2. Fatta salva l&#039;applicazione dell&#039;[[Art.5|articolo 5]] di cui all&#039;[[Art.113|articolo 113, paragrafo 3, lettera a)]], il presente regolamento si applica agli operatori dei sistemi di IA ad alto rischio, diversi dai sistemi di cui al paragrafo 1 del presente articolo, che sono stati immessi sul mercato o messi in servizio prima del &#039;&#039;&#039;&#039;&#039;... [24 mesi dalla data di entrata in vigore del presente regolamento]&#039;&#039;&#039;&#039;&#039;, solo se, a decorrere da tale data, tali sistemi sono soggetti a modifiche significative della loro progettazione. In ogni caso, i fornitori e deployers di sistemi di IA ad alto rischio destinati a essere utilizzati dalle autorità pubbliche adottano le misure necessarie per conformarsi ai requisiti e agli obblighi del presente regolamento entro il &#039;&#039;&#039;&#039;&#039;... [sei anni dalla data di entrata in vigore del presente regolamento]&#039;&#039;&#039;&#039;&#039;. &amp;lt;br /&amp;gt; &lt;br /&gt;
3. I fornitori di modelli di IA per finalità generali che sono stati immessi sul mercato prima del &#039;&#039;&#039;&#039;&#039;... [12 mesi dalla data di entrata in vigore del presente regolamento]&#039;&#039;&#039;&#039;&#039; adottano le misure necessarie per conformarsi agli obblighi di cui al presente regolamento entro &#039;&#039;&#039;&#039;&#039;... [36 mesi dalla data di entrata in vigore del presente regolamento].&#039;&#039;&#039;&#039;&#039;&lt;/div&gt;</summary>
		<author><name>InsaidewikiAA</name></author>
	</entry>
	<entry>
		<id>https://www.wikiaiact.it/w139/index.php?title=Art.110&amp;diff=961</id>
		<title>Art.110</title>
		<link rel="alternate" type="text/html" href="https://www.wikiaiact.it/w139/index.php?title=Art.110&amp;diff=961"/>
		<updated>2024-07-02T11:23:20Z</updated>

		<summary type="html">&lt;p&gt;InsaidewikiAA: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;&amp;lt;big&amp;gt;&amp;lt;big&amp;gt;&amp;lt;big&amp;gt;&#039;&#039;&#039;Modifica del regolamento (UE) 2018/1139&#039;&#039;&#039;&amp;lt;/big&amp;gt;&amp;lt;/big&amp;gt;&amp;lt;/big&amp;gt;&lt;br /&gt;
[[Categoria:Articoli]]&lt;br /&gt;
{{DEFAULTSORT:Art.110 (Modifica del regolamento (UE) 2018/1139)}}&lt;br /&gt;
{{Nota_Articoli}}&lt;br /&gt;
&lt;br /&gt;
All&#039;allegato I della direttiva (UE) 2020/1828 del Parlamento europeo e del Consiglio &amp;lt;ref&amp;gt;Direttiva (UE) 2020/1828 del Parlamento europeo e del Consiglio, del 25 novembre 2020, relativa alle azioni rappresentative a tutela degli interessi collettivi dei consumatori e che abroga la direttiva 2009/22/CE (GU L 409 del 4.12.2020, pag. 1). &amp;lt;/ref&amp;gt;  è aggiunto il punto seguente:&lt;br /&gt;
&lt;br /&gt;
&amp;quot;68) Regolamento (UE) 2024/... del Parlamento europeo e del Consiglio del ...&amp;lt;sup&amp;gt;+&amp;lt;/sup&amp;gt; &amp;lt;ref&amp;gt; &amp;lt;sup&amp;gt;+&amp;lt;/sup&amp;gt; GU: Inserire nel testo la data e il numero del presente regolamento (2021/0106(COD)).&amp;lt;/ref&amp;gt; che stabilisce regole armonizzate sull&#039;intelligenza artificiale e modifica i regolamenti (CE) n. 300/2008, (UE) n. 167/2013, (UE) n. 168/2013, (UE) 2018/858, (UE) 2018/1139 e (UE) 2019/2144 e le direttive 2014/90/UE, (UE) 2016/797 e (UE) 2020/1828 (regolamento sull&#039;intelligenza artificiale) (GU L, ..., ELI: ...).&amp;quot;.&lt;/div&gt;</summary>
		<author><name>InsaidewikiAA</name></author>
	</entry>
	<entry>
		<id>https://www.wikiaiact.it/w139/index.php?title=Art.109&amp;diff=960</id>
		<title>Art.109</title>
		<link rel="alternate" type="text/html" href="https://www.wikiaiact.it/w139/index.php?title=Art.109&amp;diff=960"/>
		<updated>2024-07-02T11:22:42Z</updated>

		<summary type="html">&lt;p&gt;InsaidewikiAA: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;&amp;lt;big&amp;gt;&amp;lt;big&amp;gt;&amp;lt;big&amp;gt;&#039;&#039;&#039;Modifica del regolamento (UE) 2019/2144&#039;&#039;&#039;&amp;lt;/big&amp;gt;&amp;lt;/big&amp;gt;&amp;lt;/big&amp;gt;&lt;br /&gt;
[[Categoria:Articoli]]&lt;br /&gt;
{{DEFAULTSORT:Art.109 (Modifica del regolamento (UE) 2019/2144)}}&lt;br /&gt;
{{Nota_Articoli}}&lt;br /&gt;
&lt;br /&gt;
All&#039;articolo 11 del regolamento (UE) 2019/2144 è aggiunto il paragrafo seguente:&lt;br /&gt;
&lt;br /&gt;
&amp;quot;3. &amp;quot;Nell&#039;adottare atti di esecuzione a norma del paragrafo 2 per quanto concerne i sistemi di intelligenza artificiale che sono componenti di sicurezza ai sensi del regolamento&lt;br /&gt;
(UE) 2024/... del Parlamento europeo e del Consiglio&amp;lt;sup&amp;gt;*&amp;lt;/sup&amp;gt; &amp;lt;ref&amp;gt; &amp;lt;sup&amp;gt;*&amp;lt;/sup&amp;gt;Regolamento (UE) 2024/... del Parlamento europeo e del Consiglio, del ..., che stabilisce regole armonizzate sull&#039;intelligenza artificiale e modifica i regolamenti (CE) n. 300/2008, (UE) n. 167/2013, (UE) n. 168/2013, (UE) 2018/858, (UE) 2018/1139 e (UE) 2019/2144 e le direttive 2014/90/UE, (UE) 2016/797 e (UE) 2020/1828 (regolamento sull&#039;intelligenza artificiale) (GU L, ..., ELI: ...).&amp;quot;. &amp;lt;/ref&amp;gt; &amp;lt;sup&amp;gt;++&amp;lt;/sup&amp;gt; &amp;lt;ref&amp;gt; &amp;lt;sup&amp;gt;++&amp;lt;/sup&amp;gt;GU: inserire nel testo il numero del presente regolamento (2021/0106(COD)) e completare la corrispondente nota a piè di pagina. &amp;lt;/ref&amp;gt;, si tiene conto dei requisiti di cui al capo III, sezione 2, di tale regolamento.&lt;/div&gt;</summary>
		<author><name>InsaidewikiAA</name></author>
	</entry>
	<entry>
		<id>https://www.wikiaiact.it/w139/index.php?title=Art.108&amp;diff=959</id>
		<title>Art.108</title>
		<link rel="alternate" type="text/html" href="https://www.wikiaiact.it/w139/index.php?title=Art.108&amp;diff=959"/>
		<updated>2024-07-02T11:22:10Z</updated>

		<summary type="html">&lt;p&gt;InsaidewikiAA: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;&amp;lt;big&amp;gt;&amp;lt;big&amp;gt;&amp;lt;big&amp;gt;&#039;&#039;&#039;Modifica del regolamento (UE) 2018/1139&#039;&#039;&#039;&amp;lt;/big&amp;gt;&amp;lt;/big&amp;gt;&amp;lt;/big&amp;gt;&lt;br /&gt;
[[Categoria:Articoli]]&lt;br /&gt;
{{DEFAULTSORT:Art.108 (Modifica del regolamento (UE) 2018/1139)}}&lt;br /&gt;
{{Nota_Articoli}}&lt;br /&gt;
&lt;br /&gt;
Il regolamento (UE) 2018/1139 è così modificato:&lt;br /&gt;
&lt;br /&gt;
1) all&#039;articolo 17 è aggiunto il paragrafo seguente:&lt;br /&gt;
&lt;br /&gt;
&amp;quot;3. Fatto salvo il paragrafo 2, nell&#039;adottare atti di esecuzione a norma del paragrafo 1 per quanto concerne i sistemi di intelligenza artificiale che sono componenti di sicurezza ai sensi del regolamento (UE) 2024/... del Parlamento europeo e del Consiglio&amp;lt;sup&amp;gt;*&amp;lt;/sup&amp;gt; &amp;lt;ref&amp;gt; &amp;lt;sup&amp;gt;*&amp;lt;/sup&amp;gt; Regolamento(UE) 2024/... del Parlamento europeo e del Consiglio, del ..., che stabilisce regole armonizzate sull&#039;intelligenza artificiale e modifica i regolamenti (CE) n. 300/2008, (UE) n. 167/2013, (UE) n. 168/2013, (UE) 2018/858, (UE) 2018/1139 e (UE) 2019/2144 e le direttive 2014/90/UE, (UE) 2016/797 e (UE) 2020/1828 (regolamento sull&#039;intelligenza artificiale) (GU L, ..., ELI: ...).&amp;quot;; &amp;lt;/ref&amp;gt; &amp;lt;sup&amp;gt;+&amp;lt;/sup&amp;gt; &amp;lt;ref&amp;gt; &amp;lt;sup&amp;gt;+&amp;lt;/sup&amp;gt;GU: inserire nel testo il numero del presente regolamento (2021/0106(COD)) e completare la corrispondente nota a piè di pagina. &amp;lt;/ref&amp;gt;, si tiene conto dei requisiti di cui al capo III, sezione 2, di tale regolamento.&lt;br /&gt;
&lt;br /&gt;
2) all&#039;articolo 19 è aggiunto il paragrafo seguente:&lt;br /&gt;
&lt;br /&gt;
&amp;quot;4. Nell&#039;adottare atti delegati a norma dei paragrafi 1 e 2 per quanto concerne i sistemi di intelligenza artificiale che sono componenti di sicurezza ai sensi del regolamento (UE) 2024/... &amp;lt;sup&amp;gt;++&amp;lt;/sup&amp;gt; &amp;lt;ref&amp;gt; &amp;lt;sup&amp;gt;++&amp;lt;/sup&amp;gt;GU: inserire il numero del presente regolamento (2021/0106 (COD)). &amp;lt;/ref&amp;gt; , si tiene conto dei requisiti di cui al capo III, sezione 2, di tale regolamento.&amp;quot;;&lt;br /&gt;
&lt;br /&gt;
3) all&#039;articolo 43 è aggiunto il paragrafo seguente:&lt;br /&gt;
&lt;br /&gt;
&amp;quot;4. Nell&#039;adottare atti di esecuzione a norma del paragrafo 1 per quanto concerne i sistemi di intelligenza artificiale che sono componenti di sicurezza ai sensi del regolamento (UE) 2024/...&amp;lt;sup&amp;gt;+&amp;lt;/sup&amp;gt;, si tiene conto dei requisiti di cui al capo III, sezione 2, di tale regolamento.&amp;quot;;&lt;br /&gt;
&lt;br /&gt;
4) all&#039;articolo 47 è aggiunto il paragrafo seguente:&lt;br /&gt;
&lt;br /&gt;
&amp;quot;3. Nell&#039;adottare atti delegati a norma dei paragrafi 1 e 2 per quanto concerne i sistemi di intelligenza artificiale che sono componenti di sicurezza ai sensi del regolamento (UE) 2024/... &amp;lt;sup&amp;gt;+&amp;lt;/sup&amp;gt;, si tiene conto dei requisiti di cui al capo III, sezione 2, di tale regolamento.&amp;quot;;&lt;br /&gt;
&lt;br /&gt;
5) all&#039;articolo 57 è aggiunto il comma seguente:&lt;br /&gt;
&lt;br /&gt;
&amp;quot;Nell&#039;adottare tali atti di esecuzione per quanto concerne i sistemi di intelligenza artificiale che sono componenti di sicurezza ai sensi del regolamento (UE) 2024/... &amp;lt;sup&amp;gt;+&amp;lt;/sup&amp;gt;, si tiene conto dei requisiti di cui al capo III, sezione 2, di tale regolamento.&amp;quot;;&lt;br /&gt;
&lt;br /&gt;
6) all&#039;articolo 58 è aggiunto il paragrafo seguente:&lt;br /&gt;
&lt;br /&gt;
&amp;quot;3. Nell&#039;adottare atti delegati a norma dei paragrafi 1 e 2 per quanto concerne i sistemi di intelligenza artificiale che sono componenti di sicurezza ai sensi del regolamento (UE) 2024/... &amp;lt;sup&amp;gt;+&amp;lt;/sup&amp;gt;, si tiene conto dei requisiti di cui al capo III, sezione 2, di tale regolamento.&amp;quot;.&lt;br /&gt;
&lt;br /&gt;
&amp;lt;references /&amp;gt; &lt;br /&gt;
&amp;lt;references /&amp;gt; &lt;br /&gt;
&amp;lt;references /&amp;gt; &lt;br /&gt;
&amp;lt;references /&amp;gt;&lt;/div&gt;</summary>
		<author><name>InsaidewikiAA</name></author>
	</entry>
	<entry>
		<id>https://www.wikiaiact.it/w139/index.php?title=Art.107&amp;diff=958</id>
		<title>Art.107</title>
		<link rel="alternate" type="text/html" href="https://www.wikiaiact.it/w139/index.php?title=Art.107&amp;diff=958"/>
		<updated>2024-07-02T11:21:25Z</updated>

		<summary type="html">&lt;p&gt;InsaidewikiAA: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;&amp;lt;big&amp;gt;&amp;lt;big&amp;gt;&amp;lt;big&amp;gt;&#039;&#039;&#039;Modifica del regolamento (UE) 2018/858&#039;&#039;&#039;&amp;lt;/big&amp;gt;&amp;lt;/big&amp;gt;&amp;lt;/big&amp;gt;&lt;br /&gt;
[[Categoria:Articoli]]&lt;br /&gt;
{{DEFAULTSORT:Art.107 (Modifica del regolamento (UE) 2018/858)}}&lt;br /&gt;
{{Nota_Articoli}}&lt;br /&gt;
&lt;br /&gt;
All&#039;articolo 5 del regolamento (UE) 2018/858 è aggiunto il paragrafo seguente:&lt;br /&gt;
&lt;br /&gt;
&amp;quot;4. &amp;quot;Nell&#039;adottare atti delegati a norma del paragrafo 3 per quanto concerne i sistemi di intelligenza artificiale che sono componenti di sicurezza ai sensi del regolamento (UE) 2024/... del Parlamento europeo e del Consiglio&amp;lt;sup&amp;gt;*&amp;lt;/sup&amp;gt; &amp;lt;ref&amp;gt; &amp;lt;sup&amp;gt;*&amp;lt;/sup&amp;gt;Regolamento (UE) 2024/... del Parlamento europeo e del Consiglio, del ..., che stabilisce regole armonizzate sull&#039;intelligenza artificiale e modifica i regolamenti (CE) n. 300/2008, (UE) n. 167/2013, (UE) n. 168/2013, (UE) 2018/858, (UE) 2018/1139 e (UE) 2019/2144 e le direttive 2014/90/UE, (UE) 2016/797 e (UE) 2020/1828 (regolamento sull&#039;intelligenza artificiale) (GU L, ..., ELI: ...).&amp;quot;. &amp;lt;/ref&amp;gt; &amp;lt;sup&amp;gt;+&amp;lt;/sup&amp;gt; &amp;lt;ref&amp;gt; &amp;lt;sup&amp;gt;+&amp;lt;/sup&amp;gt;GU: inserire nel testo il numero del presente regolamento (2021/0106(COD)) e completare la corrispondente nota a piè di pagina. &amp;lt;/ref&amp;gt;, si tiene conto dei requisiti di cui al capo III, sezione 2, di tale regolamento.&lt;/div&gt;</summary>
		<author><name>InsaidewikiAA</name></author>
	</entry>
	<entry>
		<id>https://www.wikiaiact.it/w139/index.php?title=Art.106&amp;diff=957</id>
		<title>Art.106</title>
		<link rel="alternate" type="text/html" href="https://www.wikiaiact.it/w139/index.php?title=Art.106&amp;diff=957"/>
		<updated>2024-07-02T11:20:45Z</updated>

		<summary type="html">&lt;p&gt;InsaidewikiAA: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;&amp;lt;big&amp;gt;&amp;lt;big&amp;gt;&amp;lt;big&amp;gt;&#039;&#039;&#039;Modifica della direttiva (UE) 2016/797&#039;&#039;&#039;&amp;lt;/big&amp;gt;&amp;lt;/big&amp;gt;&amp;lt;/big&amp;gt;&lt;br /&gt;
[[Categoria:Articoli]]&lt;br /&gt;
{{DEFAULTSORT:Art.106 (Modifica della direttiva (UE) 2016/797)}}&lt;br /&gt;
{{Nota_Articoli}}&lt;br /&gt;
&lt;br /&gt;
All&#039;articolo 5 della direttiva (UE) 2016/797 è aggiunto il paragrafo seguente:&lt;br /&gt;
&lt;br /&gt;
&amp;quot;12. Nell&#039;adottare atti delegati a norma del paragrafo 1 e atti di esecuzione a norma del paragrafo 11 per quanto concerne i sistemi di intelligenza artificiale che sono componenti di sicurezza ai sensi del regolamento (UE) &#039;&#039;&#039;&#039;&#039;2024/...&#039;&#039;&#039;&#039;&#039; del Parlamento europeo e del Consiglio&amp;lt;sup&amp;gt;*&amp;lt;/sup&amp;gt; &amp;lt;ref&amp;gt; &amp;lt;sup&amp;gt;*&amp;lt;/sup&amp;gt;Regolamento (UE) 2024/... del Parlamento europeo e del Consiglio, del ..., che stabilisce regole armonizzate sull&#039;intelligenza artificiale e modifica i regolamenti (CE) n. 300/2008, (UE) n. 167/2013, (UE) n. 168/2013, (UE) 2018/858, (UE) 2018/1139 e (UE) 2019/2144 e le direttive 2014/90/UE, (UE) 2016/797 e (UE) 2020/1828 (regolamento sull&#039;intelligenza artificiale) (GU L, ..., ELI: ...).&amp;quot;.&amp;lt;/ref&amp;gt; &amp;lt;sup&amp;gt;+&amp;lt;/sup&amp;gt; &amp;lt;ref&amp;gt; &amp;lt;sup&amp;gt;+&amp;lt;/sup&amp;gt;GU: inserire nel testo il numero del presente regolamento (2021/0106(COD)) e completare la corrispondente nota a piè di pagina.&amp;lt;/ref&amp;gt;, si tiene conto dei requisiti di cui al capo III, sezione 2, di tale regolamento.&lt;br /&gt;
&lt;br /&gt;
&amp;lt;references /&amp;gt; &lt;br /&gt;
&amp;lt;references /&amp;gt;&lt;/div&gt;</summary>
		<author><name>InsaidewikiAA</name></author>
	</entry>
	<entry>
		<id>https://www.wikiaiact.it/w139/index.php?title=Art.105&amp;diff=956</id>
		<title>Art.105</title>
		<link rel="alternate" type="text/html" href="https://www.wikiaiact.it/w139/index.php?title=Art.105&amp;diff=956"/>
		<updated>2024-07-02T11:20:02Z</updated>

		<summary type="html">&lt;p&gt;InsaidewikiAA: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;&amp;lt;big&amp;gt;&amp;lt;big&amp;gt;&amp;lt;big&amp;gt;&#039;&#039;&#039;Modifica della direttiva 2014/90/UE&#039;&#039;&#039;&amp;lt;/big&amp;gt;&amp;lt;/big&amp;gt;&amp;lt;/big&amp;gt;&lt;br /&gt;
[[Categoria:Articoli]]&lt;br /&gt;
{{DEFAULTSORT:Art.105 (Modifica della direttiva 2014/90/UE)}}&lt;br /&gt;
{{Nota_Articoli}}&lt;br /&gt;
&lt;br /&gt;
All&#039;articolo 8 della direttiva 2014/90/UE è aggiunto il paragrafo seguente:&lt;br /&gt;
&lt;br /&gt;
&amp;quot;5. Per i sistemi di intelligenza artificiale che sono componenti di sicurezza ai sensi del regolamento (UE) 2024/... del Parlamento europeo e del Consiglio&amp;lt;sup&amp;gt;*&amp;lt;/sup&amp;gt; &amp;lt;ref&amp;gt; &amp;lt;sup&amp;gt;*&amp;lt;/sup&amp;gt;Regolamento (UE) 2024/... del Parlamento europeo e del Consiglio, del ..., che stabilisce regole armonizzate sull&#039;intelligenza artificiale e modifica i regolamenti (CE) n. 300/2008, (UE) n. 167/2013, (UE) n. 168/2013, (UE) 2018/858, (UE) 2018/1139 e (UE) 2019/2144 e le direttive 2014/90/UE, (UE) 2016/797 e (UE) 2020/1828 (regolamento sull&#039;intelligenza artificiale) (GU L, ..., ELI: ...).&amp;quot;.&amp;lt;/ref&amp;gt; &amp;lt;sup&amp;gt;+&amp;lt;/sup&amp;gt; &amp;lt;ref&amp;gt; &amp;lt;sup&amp;gt;+&amp;lt;/sup&amp;gt;GU: inserire nel testo il numero del presente regolamento (2021/0106(COD)) e completare la corrispondente nota a piè di pagina.&amp;lt;/ref&amp;gt;, nello svolgimento delle sue attività a norma del paragrafo 1 e nell&#039;adottare specifiche tecniche e norme di prova conformemente ai paragrafi 2 e 3, la Commissione tiene conto dei requisiti di cui al capo III, sezione 2, di tale regolamento.&lt;br /&gt;
&lt;br /&gt;
&amp;lt;references /&amp;gt; &lt;br /&gt;
&amp;lt;references /&amp;gt;&lt;/div&gt;</summary>
		<author><name>InsaidewikiAA</name></author>
	</entry>
	<entry>
		<id>https://www.wikiaiact.it/w139/index.php?title=Art.104&amp;diff=955</id>
		<title>Art.104</title>
		<link rel="alternate" type="text/html" href="https://www.wikiaiact.it/w139/index.php?title=Art.104&amp;diff=955"/>
		<updated>2024-07-02T11:19:26Z</updated>

		<summary type="html">&lt;p&gt;InsaidewikiAA: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;&amp;lt;big&amp;gt;&amp;lt;big&amp;gt;&amp;lt;big&amp;gt;&#039;&#039;&#039;Modifica del regolamento (UE) n. 168/2013&#039;&#039;&#039;&amp;lt;/big&amp;gt;&amp;lt;/big&amp;gt;&amp;lt;/big&amp;gt;&lt;br /&gt;
[[Categoria:Articoli]]&lt;br /&gt;
{{DEFAULTSORT:Art.104 (Modifica del regolamento (UE) n. 168/2013)}}&lt;br /&gt;
{{Nota_Articoli}}&lt;br /&gt;
&lt;br /&gt;
All&#039;articolo 22, paragrafo 5, del regolamento (UE) n. 168/2013 è aggiunto il comma seguente: &amp;lt;br /&amp;gt; &lt;br /&gt;
&lt;br /&gt;
&amp;quot;Nell&#039;adottare atti delegati a norma del primo comma per quanto concerne i sistemi di intelligenza artificiale che sono componenti di sicurezza ai sensi del regolamento (UE) &#039;&#039;&#039;&#039;&#039;2024/...&#039;&#039;&#039;&#039;&#039; del Parlamento europeo e del Consiglio&amp;lt;sup&amp;gt;*&amp;lt;/sup&amp;gt; &amp;lt;ref&amp;gt; &amp;lt;sup&amp;gt;*&amp;lt;/sup&amp;gt;Regolamento (UE) 2024/... del Parlamento europeo e del Consiglio, del ..., che stabilisce regole armonizzate sull&#039;intelligenza artificiale e modifica i regolamenti (CE) n. 300/2008, (UE) n. 167/2013, (UE) n. 168/2013, (UE) 2018/858, (UE) 2018/1139 e (UE) 2019/2144 e le direttive 2014/90/UE, (UE) 2016/797 e (UE) 2020/1828 (regolamento sull&#039;intelligenza artificiale) (GU L, ..., ELI: ...).&amp;quot;.&amp;lt;/ref&amp;gt; &amp;lt;sup&amp;gt;+&amp;lt;/sup&amp;gt; &amp;lt;ref&amp;gt; &amp;lt;sup&amp;gt;+&amp;lt;/sup&amp;gt;GU: inserire nel testo il numero del presente regolamento (2021/0106(COD)) e completare la corrispondente nota a piè di pagina.&amp;lt;/ref&amp;gt;, si tiene conto dei requisiti di cui al capo III, sezione 2, di tale regolamento.&lt;br /&gt;
&lt;br /&gt;
&amp;lt;references /&amp;gt; &lt;br /&gt;
&amp;lt;references /&amp;gt;&lt;/div&gt;</summary>
		<author><name>InsaidewikiAA</name></author>
	</entry>
</feed>