BOR

Richiedi Preventivo

Pubblicate le indicazioni operative per un’AI Affidabile

Immagine in evidenza
Pubblicate le indicazioni operative per un’intelligenza artificiale affidabile

Pubblicate le indicazioni operative per ridurre i rischi di discriminazione, manipolazione e limitazione delle libertà personali

L’impiego dell’intelligenza artificiale nella gestione dei processi aziendali è di indiscussa utilità ma, come ogni strumento tecnologico, soprattutto se utilizzato a supporto di chi si occupa di management, comporta l’osservazione di precisi protocolli, idonei a garantire il rispetto dei requisiti di sicurezza e affidabilità.

[prisna-google-website-translator]

La Commissione europea insieme a un Gruppo di esperti hanno pubblicato un documento, destinato agli operatori coinvolti nelle attività di sviluppo software e consulenza nella compliance, che contiene indicazioni operative adeguate a fornire supporto alle attività di consulenza, difesa e assistenza per l’utilizzo di software di intelligenza artificiale “affidabili”.

La pubblicazione delle indicazioni operative nasce dall’esigenza di prevenire ed evitare possibili “effetti indesiderati” che l’utilizzo dell’Intelligenza Artificiale potrebbe generare in determinati individui e contesti organizzativi, riducendone così i rischi e ottimizzandone invece i benefici.

Da anni ormai si analizzano i pro e i contro dell’impiego dell’AI nella vita quotidiana: l’analisi si concentra essenzialmente sull’impatto che potrebbe avere rispetto ai diritti fondamentali delle persone, ma l’aspetto su cui maggiormente ci si sofferma è il rischio che i sistemi di AI che agiscono come gli umani, possano influenzare il comportamento umano nel praticare scelte decisionali.

Per ridurne l’impatto occorre innanzitutto capire cos’è l’intelligenza artificiale affidabile, e conoscere gli effetti che potrebbe generare. Disporre di un elenco di possibili rischi consente di valutare dettagliatamente gli effetti dei sistemi di AI sulla società, sull’ambiente, sui consumatori, lavoratori e cittadini, e ottimizzarne l’utilizzo.

Lo strumento di valutazione dei rischi, pubblicato dalla Commissione Europea, prende il nome di ALTAI: è un documento, consultabile online (fai clic qui per visualizzarlo), che contiene una lista di controllo, destinata agli sviluppatori e aziende produttrici di sistemi di intelligenza artificiale, per evitare rischi legati all’impatto dell’AI sulla società e sulle categorie più esposte.

ALTAI è l’acronimo di Assestment List for Trustworthy AI ed elenca i principi cui attenersi per sviluppare sistemi di intelligenza artificiale affidabile.

Non perdere il prossimo articolo per sapere in dettaglio quali sono i sette principi etici per una AI affidabile.

 

Summary
Pubblicate le indicazioni operative per un’AI Affidabile
Article Name
Pubblicate le indicazioni operative per un’AI Affidabile
Description
Intelligenza Artificiale Affidabile, pubblicate le indicazioni operative per ridurre i rischi di discriminazione, manipolazione e limitazione delle libertà...
Author
Publisher Name
BOR
Publisher Logo
Condividi su
Array
(
    [_edit_last] => Array
        (
            [0] => 1
        )

    [_bsf_post_type] => Array
        (
            [0] => 10
        )

    [_bsf_item_review_type] => Array
        (
            [0] => none
        )

    [_bsf_article_name] => Array
        (
            [0] => Pubblicate le indicazioni operative per un’AI Affidabile
        )

    [_bsf_article_desc] => Array
        (
            [0] => Intelligenza Artificiale Affidabile, pubblicate le indicazioni operative per ridurre i rischi di discriminazione, manipolazione e limitazione delle libertà...
        )

    [_bsf_article_author] => Array
        (
            [0] => Carmelina Moccia
        )

    [_bsf_article_publisher] => Array
        (
            [0] => BOR
        )

    [_bsf_article_publisher_logo] => Array
        (
            [0] => https://www.borsecurity.it/wp-content/uploads/2020/01/logo-bor-nero.jpg
        )

    [_heateor_sss_meta] => Array
        (
            [0] => a:2:{s:7:"sharing";i:0;s:16:"vertical_sharing";i:0;}
        )

    [wpcr3_enable] => Array
        (
            [0] => 1
        )

    [wpcr3_hideform] => Array
        (
            [0] => 0
        )

    [wpcr3_format] => Array
        (
            [0] => business
        )

    [panels_data] => Array
        (
            [0] => a:3:{s:7:"widgets";a:2:{i:0;a:17:{s:5:"image";i:12981;s:14:"image_fallback";s:0:"";s:4:"size";s:4:"full";s:5:"align";s:7:"default";s:11:"title_align";s:7:"default";s:5:"title";s:80:"Pubblicate le indicazioni operative per un’intelligenza artificiale affidabile";s:14:"title_position";s:6:"hidden";s:3:"alt";s:80:"Pubblicate le indicazioni operative per un’intelligenza artificiale affidabile";s:3:"url";s:0:"";s:5:"bound";b:1;s:10:"full_width";b:1;s:12:"_sow_form_id";s:31:"3748555615f58c20d457f8914800806";s:19:"_sow_form_timestamp";s:13:"1599654530064";s:10:"new_window";b:0;s:22:"so_sidebar_emulator_id";s:20:"sow-image-1297710000";s:11:"option_name";s:16:"widget_sow-image";s:11:"panels_info";a:7:{s:5:"class";s:30:"SiteOrigin_Widget_Image_Widget";s:3:"raw";b:0;s:4:"grid";i:0;s:4:"cell";i:0;s:2:"id";i:0;s:9:"widget_id";s:36:"eb3d586d-d52f-4a4c-a632-512ad049fa99";s:5:"style";a:2:{s:27:"background_image_attachment";b:0;s:18:"background_display";s:4:"tile";}}}i:1;a:9:{s:5:"title";s:129:"Pubblicate le indicazioni operative per ridurre i rischi di discriminazione, manipolazione e limitazione delle libertà personali";s:4:"text";s:3186:"

L’impiego dell’intelligenza artificiale nella gestione dei processi aziendali è di indiscussa utilità ma, come ogni strumento tecnologico, soprattutto se utilizzato a supporto di chi si occupa di management, comporta l’osservazione di precisi protocolli, idonei a garantire il rispetto dei requisiti di sicurezza e affidabilità.

[prisna-google-website-translator]

La Commissione europea insieme a un Gruppo di esperti hanno pubblicato un documento, destinato agli operatori coinvolti nelle attività di sviluppo software e consulenza nella compliance, che contiene indicazioni operative adeguate a fornire supporto alle attività di consulenza, difesa e assistenza per l’utilizzo di software di intelligenza artificiale “affidabili”.

La pubblicazione delle indicazioni operative nasce dall’esigenza di prevenire ed evitare possibili “effetti indesiderati” che l’utilizzo dell’Intelligenza Artificiale potrebbe generare in determinati individui e contesti organizzativi, riducendone così i rischi e ottimizzandone invece i benefici.

Da anni ormai si analizzano i pro e i contro dell’impiego dell’AI nella vita quotidiana: l’analisi si concentra essenzialmente sull’impatto che potrebbe avere rispetto ai diritti fondamentali delle persone, ma l’aspetto su cui maggiormente ci si sofferma è il rischio che i sistemi di AI che agiscono come gli umani, possano influenzare il comportamento umano nel praticare scelte decisionali.

Per ridurne l’impatto occorre innanzitutto capire cos’è l’intelligenza artificiale affidabile, e conoscere gli effetti che potrebbe generare. Disporre di un elenco di possibili rischi consente di valutare dettagliatamente gli effetti dei sistemi di AI sulla società, sull’ambiente, sui consumatori, lavoratori e cittadini, e ottimizzarne l’utilizzo.

Lo strumento di valutazione dei rischi, pubblicato dalla Commissione Europea, prende il nome di ALTAI: è un documento, consultabile online (fai clic qui per visualizzarlo), che contiene una lista di controllo, destinata agli sviluppatori e aziende produttrici di sistemi di intelligenza artificiale, per evitare rischi legati all’impatto dell’AI sulla società e sulle categorie più esposte.

ALTAI è l’acronimo di Assestment List for Trustworthy AI ed elenca i principi cui attenersi per sviluppare sistemi di intelligenza artificiale affidabile.

Non perdere il prossimo articolo per sapere in dettaglio quali sono i sette principi etici per una AI affidabile.

 

";s:20:"text_selected_editor";s:7:"tinymce";s:5:"autop";b:1;s:12:"_sow_form_id";s:31:"6125437405f58c2101276d942268197";s:19:"_sow_form_timestamp";s:13:"1602072491396";s:11:"panels_info";a:6:{s:5:"class";s:31:"SiteOrigin_Widget_Editor_Widget";s:4:"grid";i:0;s:4:"cell";i:0;s:2:"id";i:1;s:9:"widget_id";s:36:"522c390f-f706-4c13-81ae-975f8e935c22";s:5:"style";a:2:{s:27:"background_image_attachment";b:0;s:18:"background_display";s:4:"tile";}}s:22:"so_sidebar_emulator_id";s:21:"sow-editor-1297710001";s:11:"option_name";s:17:"widget_sow-editor";}}s:5:"grids";a:1:{i:0;a:4:{s:5:"cells";i:1;s:5:"style";a:3:{s:27:"background_image_attachment";b:0;s:18:"background_display";s:4:"tile";s:14:"cell_alignment";s:10:"flex-start";}s:5:"ratio";i:1;s:15:"ratio_direction";s:5:"right";}}s:10:"grid_cells";a:1:{i:0;a:4:{s:4:"grid";i:0;s:5:"index";i:0;s:6:"weight";i:1;s:5:"style";a:0:{}}}} ) [_metaseo_metatitle] => Array ( [0] => Pubblicate le indicazioni operative per un’AI Affidabile ) [_metaseo_metadesc] => Array ( [0] => Intelligenza Artificiale Affidabile, pubblicate le indicazioni operative per ridurre i rischi di discriminazione, manipolazione e limitazione delle libertà... ) [_metaseo_metakeywords] => Array ( [0] => Pubblicate le indicazioni operative per un’AI affidabile, indicazioni operative per un’AI affidabile, quali sono le indicazioni operative per un’AI affidabile, come ridurre i rischi di discriminazione, manipolazione e limitazione delle libertà ) [_metaseo_metaopengraph-title] => Array ( [0] => Pubblicate le indicazioni operative per un’AI affidabile ) [_metaseo_metaopengraph-desc] => Array ( [0] => Intelligenza Artificiale Affidabile, pubblicate le indicazioni operative per ridurre i rischi di discriminazione, manipolazione e limitazione delle libertà... ) [_metaseo_metaopengraph-image] => Array ( [0] => https://www.borsecurity.it/wp-content/uploads/2020/09/55e6dc454355ad14f6d1867dda79307f1137c3e45658784f702c7cd190_1920.jpg ) [_metaseo_metatwitter-title] => Array ( [0] => Pubblicate le indicazioni operative per un’AI affidabile ) [_metaseo_metatwitter-desc] => Array ( [0] => Intelligenza Artificiale Affidabile, pubblicate le indicazioni operative per ridurre i rischi di discriminazione, manipolazione e limitazione delle libertà... ) [_metaseo_metatwitter-image] => Array ( [0] => https://www.borsecurity.it/wp-content/uploads/2020/09/55e6dc454355ad14f6d1867dda79307f1137c3e45658784f702c7cd190_1920.jpg ) [_bsf_article_image] => Array ( [0] => https://www.borsecurity.it/wp-content/uploads/2020/09/55e6dc454355ad14f6d1867dda79307f1137c3e45658784f702c7cd190_1920.jpg ) [_blfe_post_views] => Array ( [0] => 56 ) [tpg-post-view-count] => Array ( [0] => 56 ) [_eael_post_view_count] => Array ( [0] => 81 ) )
error: Content is protected !!