chatbot

USA: proposta di legge per risolvere le questioni del copyright nei modelli di IA

Di |2024-04-15T12:23:52+02:0015 Aprile , 2024|Articoli, Intelligenza Artificiale, News|

Il dibattito sull'utilizzo di contenuti protetti da copyright nell'ambito della formazione sull'intelligenza artificiale è sempre molto acceso, inoltre è accompagnato dall'incertezza sui fonti di dati utilizzate dall'intelligenza artificiale. La settimana scorsa un deputato degli Stati Uniti, Adam Schiff ha presentato il "Generative AI Copyright Disclosure Act", una proposta di legge che richiederebbe alle aziende di intelligenza artificiale di identificare chiaramente ogni opera protetta da copyright nei loro set di dati. Schiff ha sottolineato l'importanza di bilanciare il potenziale rivoluzionario dell'intelligenza artificiale con la necessità di linee guida etiche.

IA nel giornalismo: il report dell’Associated Press

Di |2024-04-13T18:03:24+02:0011 Aprile , 2024|Articoli, Intelligenza Artificiale, News|

Associated Press (AP) ha realizzato un report per valutare l'impatto dell'intelligenza artificiale generativa nel settore dell'editoria e della comunicazione. Il report presenta i risultati di un sondaggio condotto su 292 professionisti dell'informazione tra il 4 e il 22 dicembre 2023, focalizzandosi sull'utilizzo attuale e futuro dell'IA, nonché sulle questioni etiche e pratiche correlate. Dopo l'introduzione di ChatGPT da parte di OpenAI alla fine del 2022, altre grandi aziende tecnologiche hanno sviluppato rapidamente i propri modelli di intelligenza artificiale generativa, come Bard e poi Gemini di Google, Claude di Anthropic, Copilot di Microsoft e offerte open source come LLaMA di Meta.

L’Intelligenza artificiale di OpenAI e Meta ad un passo da una svolta epocale

Di |2024-04-12T11:51:57+02:0010 Aprile , 2024|Articoli, Intelligenza Artificiale, News, Tecnologia e applicazioni|

Due delle più importanti aziende nel settore dell’intelligenza artificiale, OpenAI e Meta, rilasceranno a breve nuove versioni dei propri modelli, più evolute e potrebbero rappresentare una svolta significativa nella corsa verso le AGI (Artificial General Intelligence) ovvero quel livello di intelligenza artificiale che potrebbe essere in grado di ragionare e pianificare. Durante un evento a Londra, tenutosi martedì, Nick Clegg presidente di Affari globali di Meta ha dichiarato: "Entro il prossimo mese, speriamo di iniziare a lanciare la nostra nuova suite di modelli di nuova generazione, Llama 3".

Claude 3 (Anthropic) sfida ChatGpt

Di |2024-03-08T14:17:01+01:008 Marzo , 2024|Articoli, Giornalismo e IA, Tecnologia e applicazioni|

Anthropic, società che sviluppa intelligenza artificiale fondata da ex dipendenti di OpenAI, lo scorso 4 marzo ha rilasciato Claude 3, una famiglia di modelli linguistici di grandi dimensioni (LLM), che, stando alle dichiarazioni di Anthropic, avrebbero raggiunto capacità “quasi umane”. La famiglia di modelli comprende tre varianti avanzate in ordine crescente di capacità: Claude 3 Haiku, Claude 3 Sonnet e Claude 3 Opus. Ogni modello successivo offre prestazioni sempre più potenti, permettendo agli utenti di trovare un equilibrio ottimale tra intelligenza, velocità e costo per le loro specifiche applicazioni. I primi rapporti indicano che Claude 3 dimostra "prestazioni avanzate in vari compiti cognitivi" e la capacità di elaborare ragionamenti.

Continua la querelle tra Il The New York Times e OpenAI – Microsoft

Di |2024-03-08T14:36:03+01:008 Marzo , 2024|Articoli, Giornalismo e IA|

È un botta e risposta oramai tra il The New York Times OpenAI e Microsoft, dal 27 dicembre 2023, quando il Times ha avviato azioni legali contro le due aziende, accusandoli di violazione di copyright. Secondo l'accusa, l'utilizzo dei chatbot sta erodendo la posizione dei tradizionali media come fonti affidabili di notizie. la scorsa settimana OpenAI ha presentato una mozione presso il tribunale federale di Manhattan, Anche Microsoft ha replicato presentando lunedì una mozione, al tribunale distrettuale degli Stati Uniti presso il distretto meridionale di New York, chiedendo al giudice di rigettare alcune parti della causa intentata dal giornale. Microsoft ha affermato che i modelli linguistici di grandi dimensioni, non hanno avuto un impatto negativo sul mercato delle notizie o sui materiali utilizzati per il loro addestramento.

Londra crea l’AI Safety Institute per affrontare i rischi dei modelli di IA

Di |2024-02-16T11:21:49+01:0014 Febbraio , 2024|Articoli, Etica e Normativa|

L'AI Safety Institute, l'organizzazione dedicata alla sicurezza nell'utilizzo e nello sviluppo dell'intelligenza artificiale inglese presentata dal primo ministro Rishi Sunak lo scorso anno, ha reso pubblici i primi risultati della sua ricerca sui modelli linguistici di grandi dimensioni (LLM), alla base di strumenti come i chatbot e i generatori di immagini. I modelli LLM hanno dimostrato di essere vulnerabili all'inganno e alla manipolazione, aprendo la porta a possibili abusi. Sui modelli testati è emerso il grave rischio che potrebbero assistere nella pianificazione di attacchi informatici. Un esempio emblematico emerso dalla ricerca è l'identificazione di un modello capace di generare personaggi sui social media per diffondere disinformazione in modo altamente convincente ed efficiente.

OpenAI annuncia il suo impegno per prevenire l’uso distorto dell’IA per le elezioni politiche

Di |2024-02-05T10:38:57+01:0026 Gennaio , 2024|Articoli, News, Tecnologia e applicazioni|

In vista dei numerosi appuntamenti elettorali previsti nel 2024, dalla politica degli Stati Uniti all'Europa, e considerando il diffuso timore legato ai deepfake, OpenAI ha recentemente annunciato, attraverso un post sul suo blog, la sua risoluta determinazione a migliorare il suo impegno per rendere sicura la piattaforma fornendo informazioni accurate sul voto, applicando politiche adeguate e migliorando la trasparenza. “Abbiamo uno sforzo trasversale dedicato al lavoro sulle elezioni, che riunisce le competenze dei nostri sistemi di sicurezza, delle intelligence sulle minacce, dei team legali, tecnologici e politici per indagare e risolvere rapidamente i potenziali abusi” scrivono da OpenAI.

SØØn – Newsletter n°2 del 12 gennaio 2024

Di |2024-02-21T16:13:27+01:0012 Gennaio , 2024|Riepiloghi|

Gli argomenti trattati questa settimana sono: - NYT reticente secondo OpenAI - L’IA alla ricerca di nuove interfacce mentre tramontano i social - I nuovi Trend per il digitale secondo il Reuters Institute - Prospettive regolatorie per l’IA nel 2024 - Un teologo per dare le linee guida all’IA italiana

L’IA alla ricerca di nuove interfacce mentre tramontano i social

Di |2024-02-21T13:22:46+01:0012 Gennaio , 2024|Articoli, News, Newsletter, Opinioni e analisi|

Sembra che l'epoca dei vecchi social media, inizialmente orientati principalmente verso i Millennials, stia giungendo al termine. A scriverlo è David Cohn, cofondatore e direttore strategico di Subtext, nonché direttore senior di Advance Alpha Group, il quale ha dedicato gli ultimi dieci anni all'esplorazione dell'innovazione nel giornalismo guidato dall'Intelligenza Artificiale (IA), prevedendo che il 2024 potrebbe segnare un notevole progresso nell'applicazione dell'IA, con un cambiamento equiparabile a quello causato dall'avvento dei social media. Sam Cholke – ricorda Cohn - esperto responsabile della distribuzione e crescita del pubblico presso l'Institute for Nonprofit News, ha evidenziato il recente declino del traffico su Facebook, sottolineando la fragilità del pubblico online.

Torna in cima