{"id":2629,"date":"2021-02-15T05:00:00","date_gmt":"2021-02-15T04:00:00","guid":{"rendered":"https:\/\/ellycode.com\/?p=2629"},"modified":"2021-05-07T16:40:30","modified_gmt":"2021-05-07T14:40:30","slug":"unintelligenza-artificiale-piu-etica","status":"publish","type":"post","link":"https:\/\/ellycode.com\/it\/blog\/unintelligenza-artificiale-piu-etica\/","title":{"rendered":"Un&#8217;Intelligenza Artificiale pi\u00f9 etica"},"content":{"rendered":"\n<p class=\"wp-block-paragraph\">Da quando l\u2019intelligenza artificiale ha cominciato ad attraversare una seconda giovinezza, ci si \u00e8 subito preoccupati dei problemi che questa avrebbe potuto avere sull\u2019umanit\u00e0. Nell\u2019immaginario collettivo il timore che le macchine possano estinguere la nostra vita o ridurla in schiavit\u00f9 \u00e8 stranamente ancora presente, complice sicuramente la cinematografia hollywoodiana.<\/p>\n\n\n\n<figure class=\"wp-block-embed is-type-video is-provider-youtube wp-block-embed-youtube wp-embed-aspect-16-9 wp-has-aspect-ratio\"><div class=\"wp-block-embed__wrapper\">\n<span class=\"embed-youtube\" style=\"text-align:center; display: block;\"><iframe loading=\"lazy\" class=\"youtube-player\" width=\"1080\" height=\"608\" src=\"https:\/\/www.youtube.com\/embed\/O5b0ZxUWNf0?version=3&#038;rel=1&#038;showsearch=0&#038;showinfo=1&#038;iv_load_policy=1&#038;fs=1&#038;hl=it-IT&#038;autohide=2&#038;wmode=transparent\" allowfullscreen=\"true\" style=\"border:0;\" sandbox=\"allow-scripts allow-same-origin allow-popups allow-presentation allow-popups-to-escape-sandbox\"><\/iframe><\/span>\n<\/div><\/figure>\n\n\n\n<p class=\"wp-block-paragraph\">Se non conosci il film del video o sei troppo giovane o non ami questo genere: in tutti e due i casi \u00e8 una mancanza assolutamente da colmare!<\/p>\n\n\n\n<p class=\"wp-block-paragraph\">Come avrete intuito dall\u2019<a href=\"https:\/\/ellycode.com\/it\/blog\/il-valore-dei-dati-nell-intelligenza-artificiale\/\" target=\"_blank\" rel=\"noreferrer noopener\">articolo di Salvatore<\/a> e dal tantissimo materiale presente in rete, non \u00e8 sicuramente questo l\u2019aspetto che ci deve preoccupare, ma piuttosto <strong>la seria possibilit\u00e0 di sviluppare e usare questa tecnologia senza avere dei principi etici che facciano da guida<\/strong>.<\/p>\n\n\n\n<h2 class=\"wp-block-heading\" id=\"h-in-che-senso-etici\">In che senso \u201cetici\u201d?<\/h2>\n\n\n\n<p class=\"wp-block-paragraph\">Penso che gli appassionati di fantascienza come il sottoscritto associno involontariamente la frase<strong> \u201cetica dell\u2019intelligenza artificiale\u201d<\/strong> alle <a href=\"https:\/\/it.wikipedia.org\/wiki\/Tre_leggi_della_robotica\" target=\"_blank\" rel=\"noreferrer noopener\">tre leggi della robotica di Isaac Asimov<\/a>, in particolare alla prima:<\/p>\n\n\n\n<blockquote class=\"wp-block-quote is-layout-flow wp-block-quote-is-layout-flow\"><p>Un robot non pu\u00f2 recar danno a un essere umano n\u00e9 pu\u00f2 permettere che, a causa del suo mancato intervento, un essere umano riceva danno.<\/p><\/blockquote>\n\n\n\n<p class=\"wp-block-paragraph\">La cosa divertente \u00e8 che, allargando il significato di \u201crecar danno\u201d, questa regola pu\u00f2 effettivamente riassumere il contenuto del documento degli <em><a href=\"https:\/\/op.europa.eu\/it\/publication-detail\/-\/publication\/d3988569-0434-11ea-8c1f-01aa75ed71a1\" target=\"_blank\" rel=\"noreferrer noopener\">\u201cOrientamenti etici per un\u2019IA affidabile\u201d<\/a><\/em>, pubblicato dall\u2019Unione Europea nel 2019 come risultato del lavoro di una commissione di 52 esperti tra cittadini, ricercatori e istituzioni.<\/p>\n\n\n\n<p class=\"wp-block-paragraph\">Da questo documento vengono fuori quattro principi:<\/p>\n\n\n\n<ul class=\"wp-block-list\"><li><strong>Rispetto dell\u2019autonomia umana<\/strong>: I sistemi di IA non devono subordinare, costringere, ingannare, manipolare, condizionare o aggregare in modo ingiustificato gli esseri umani.<\/li><li><strong>Prevenzione dei danni<\/strong>: I sistemi di IA non devono causare danni, n\u00e9 aggravarli e neppure influenzare negativamente gli esseri umani, per cui occorre tutelare la dignit\u00e0 umana nonch\u00e9 l&#8217;integrit\u00e0 fisica e psichica.<\/li><li><strong>Equit\u00e0<\/strong>: Lo sviluppo, la distribuzione e l&#8217;utilizzo dei sistemi di IA devono essere equi. L&#8217;utilizzo dei sistemi di IA, inoltre, non deve mai ingannare gli utenti (finali) n\u00e9 ostacolarne la libert\u00e0 di scelta.<\/li><li><strong>Esplicabilit\u00e0<\/strong>: i processi devono essere trasparenti, le capacit\u00e0 e lo scopo dei sistemi di IA devono essere comunicati apertamente e le decisioni, per quanto possibile, devono poter essere spiegate a coloro che ne sono direttamente o indirettamente interessati.<\/li><\/ul>\n\n\n\n<p class=\"wp-block-paragraph\">Il documento completo \u00e8 molto interessante e semplice da leggere, spingendosi anche nel fornire linee guida per implementare i principi di cui parla, dategli una lettura.<\/p>\n\n\n\n<h2 class=\"wp-block-heading\" id=\"h-quali-sono-i-pericoli\">Quali sono i pericoli?<\/h2>\n\n\n\n<p class=\"wp-block-paragraph\">Sicuramente ricorderete il successo del documentario di Netflix <strong>\u201cThe social dilemma\u201d<\/strong>, che ha fatto molto discutere per <strong>l\u2019impatto che gli algoritmi di intelligenza artificiale hanno avuto sul controllo dell\u2019attenzione del pubblico<\/strong> dei social network al fine di ottimizzare la vendita di pubblicit\u00e0.<\/p>\n\n\n\n<figure class=\"wp-block-embed is-type-video is-provider-youtube wp-block-embed-youtube wp-embed-aspect-16-9 wp-has-aspect-ratio\"><div class=\"wp-block-embed__wrapper\">\n<span class=\"embed-youtube\" style=\"text-align:center; display: block;\"><iframe loading=\"lazy\" class=\"youtube-player\" width=\"1080\" height=\"608\" src=\"https:\/\/www.youtube.com\/embed\/Ko2YcD0iYpc?version=3&#038;rel=1&#038;showsearch=0&#038;showinfo=1&#038;iv_load_policy=1&#038;fs=1&#038;hl=it-IT&#038;autohide=2&#038;wmode=transparent\" allowfullscreen=\"true\" style=\"border:0;\" sandbox=\"allow-scripts allow-same-origin allow-popups allow-presentation allow-popups-to-escape-sandbox\"><\/iframe><\/span>\n<\/div><\/figure>\n\n\n\n<p class=\"wp-block-paragraph\">Ma i pericoli possono essere tanti, pensate ad esempio al riconoscimento facciale e all\u2019uso che se ne pu\u00f2 fare <a href=\"https:\/\/www.theverge.com\/2018\/6\/22\/17492106\/amazon-ice-facial-recognition-internal-letter-protest\" target=\"_blank\" rel=\"noreferrer noopener\">per scopi poco nobili<\/a>, spesso non intenzionali ma basati su <strong>bias cognitivi dovuti ai dati con cui vengono addestrati gli algoritmi<\/strong>, che possono essere <strong>influenzati dal pregiudizio umano<\/strong>.<\/p>\n\n\n\n<p class=\"wp-block-paragraph\">Un altro aspetto importante \u00e8 quello della <strong>privacy<\/strong>, soprattutto con l\u2019utilizzo degli assistenti virtuali, in cui i flussi vocali degli utenti dovrebbero essere utilizzati solo per rispondere alle richieste fatte e non per tracciare profili degli utenti per la pubblicit\u00e0 mirata. In <a href=\"https:\/\/www.bbc.com\/news\/technology-49205092\" target=\"_blank\" rel=\"noreferrer noopener\">varie occasioni<\/a> purtroppo c\u2019\u00e8 stato il sospetto che le registrazioni fossero utilizzate non per migliorare il servizio, aspetto a cui l\u2019utente pu\u00f2 aderire o meno, ma per veicolare messaggi pubblicitari.<\/p>\n\n\n\n<p class=\"wp-block-paragraph\">Le big company si sono comunque attivate per <strong>avere un proprio codice etico sull\u2019intelligenza artificiale<\/strong>, come <a href=\"https:\/\/www.microsoft.com\/en-us\/ai\/responsible-ai\" target=\"_blank\" rel=\"noreferrer noopener\">Microsoft <\/a>ad esempio, che declina questi principi su sei punti: <strong>equit\u00e0<\/strong>, <strong>affidabilit\u00e0 <\/strong>e <strong>sicurezza<\/strong>, <strong>privacy<\/strong>, <strong>inclusivit\u00e0<\/strong>, <strong>trasparenza <\/strong>e <strong>responsabilit\u00e0<\/strong>. <a href=\"https:\/\/ai.google\/principles\/\" target=\"_blank\" rel=\"noreferrer noopener\">Google <\/a>non \u00e8 da meno, ponendo l\u2019attenzione sui <strong>benefici per la societ\u00e0<\/strong>, la <strong>sicurezza <\/strong>e la <strong>privacy<\/strong>. Era giusto per citarne qualcuno, ma anche AWS, Apple, Facebook si sono mosse nella stessa direzione, <strong>spinte sicuramente anche dall\u2019opinione pubblica e dalle istituzioni<\/strong>.<\/p>\n\n\n\n<h2 class=\"wp-block-heading\" id=\"h-cosa-possiamo-fare\">Cosa possiamo fare?<\/h2>\n\n\n\n<p class=\"wp-block-paragraph\">Come in tutte le questione etiche, un passo fondamentale \u00e8 parlarne. Questo possiamo farlo tutti e pu\u00f2 essere un primo contributo. Un ulteriore passo per le aziende del settore \u00e8 lavorare tenendo sempre questi principi in mente, collaborando solo con aziende e servizi che fanno altrettanto.<\/p>\n\n\n\n<p class=\"wp-block-paragraph\">In Ellycode, essendo poi impegnati nella realizzazione di un prodotto che ha proprio il focus di <strong>migliorare l\u2019interazione tra intelligenza artificiale e essere umani<\/strong>, questi principi sono una vera e propria guida: non vediamo l\u2019ora di mostrarvi come!<\/p>\n\n\n\n<p class=\"wp-block-paragraph\">Continuate a seguirci.<\/p>\n\n\n[et_pb_section global_module=\"1778\"][\/et_pb_section]\n","protected":false},"excerpt":{"rendered":"<p>Da quando l\u2019intelligenza artificiale ha cominciato ad attraversare una seconda giovinezza, ci si \u00e8 subito preoccupati dei problemi che questa avrebbe potuto avere sull\u2019umanit\u00e0. Nell\u2019immaginario collettivo il timore che le macchine possano estinguere la nostra vita o ridurla in schiavit\u00f9 \u00e8 stranamente ancora presente, complice sicuramente la cinematografia hollywoodiana. Se non conosci il film del [&hellip;]<\/p>\n","protected":false},"author":195423235,"featured_media":2669,"comment_status":"closed","ping_status":"closed","sticky":false,"template":"","format":"standard","meta":{"_et_pb_use_builder":"","_et_pb_old_content":"","_et_gb_content_width":"","_coblocks_attr":"","_coblocks_dimensions":"","_coblocks_responsive_height":"","_coblocks_accordion_ie_support":"","_crdt_document":"","inline_featured_image":false,"_jetpack_newsletter_access":"","_jetpack_dont_email_post_to_subs":false,"_jetpack_newsletter_tier_id":0,"_jetpack_memberships_contains_paywalled_content":false,"_jetpack_memberships_contains_paid_content":false,"footnotes":"","jetpack_post_was_ever_published":false},"categories":[688637365],"tags":[],"class_list":["post-2629","post","type-post","status-publish","format-standard","has-post-thumbnail","hentry","category-blog"],"jetpack_featured_media_url":"https:\/\/i0.wp.com\/ellycode.com\/wp-content\/uploads\/2021\/02\/4_1105x656_blog_Etica.png?fit=1105%2C656&ssl=1","jetpack_shortlink":"https:\/\/wp.me\/pcuDuD-Gp","jetpack_sharing_enabled":true,"_links":{"self":[{"href":"https:\/\/ellycode.com\/it\/wp-json\/wp\/v2\/posts\/2629","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/ellycode.com\/it\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/ellycode.com\/it\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/ellycode.com\/it\/wp-json\/wp\/v2\/users\/195423235"}],"replies":[{"embeddable":true,"href":"https:\/\/ellycode.com\/it\/wp-json\/wp\/v2\/comments?post=2629"}],"version-history":[{"count":11,"href":"https:\/\/ellycode.com\/it\/wp-json\/wp\/v2\/posts\/2629\/revisions"}],"predecessor-version":[{"id":3409,"href":"https:\/\/ellycode.com\/it\/wp-json\/wp\/v2\/posts\/2629\/revisions\/3409"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/ellycode.com\/it\/wp-json\/wp\/v2\/media\/2669"}],"wp:attachment":[{"href":"https:\/\/ellycode.com\/it\/wp-json\/wp\/v2\/media?parent=2629"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/ellycode.com\/it\/wp-json\/wp\/v2\/categories?post=2629"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/ellycode.com\/it\/wp-json\/wp\/v2\/tags?post=2629"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}