chatbot

Finacial Times concede i suoi dati ad OpenAI in cambio dei link alle fonti

Di |2024-06-04T16:23:39+02:0029 Aprile , 2024|Articoli, Giornalismo, Giornalismo e IA, Intelligenza Artificiale, News|

OpenAI ha recentemente stretto un accordo con il Financial Times per l'accesso ai suoi dati, ampliando così la sua rete di collaborazioni con le testate giornalistiche, rete che attualmente include Associated Press, Axel Springer, Le Monde e Prisa Media. Questo accordo consentirà a OpenAI di utilizzare il materiale del FT per l'addestramento dei suoi modelli, avanzando ulteriormente nelle tecnologie di intelligenza artificiale generativa. OpenAI potrà inoltre utilizzare il materiale del FT per fornire ai suoi utenti brevi riassunti degli articoli, con collegamenti diretti al sito FT.com, offrendo così un accesso immediato alle fonti originali per i suoi milioni di utenti in tutto il mondo.

IA nel giornalismo: il report dell’Associated Press

Di |2024-04-13T18:03:24+02:0011 Aprile , 2024|Articoli, Intelligenza Artificiale, News|

Associated Press (AP) ha realizzato un report per valutare l'impatto dell'intelligenza artificiale generativa nel settore dell'editoria e della comunicazione. Il report presenta i risultati di un sondaggio condotto su 292 professionisti dell'informazione tra il 4 e il 22 dicembre 2023, focalizzandosi sull'utilizzo attuale e futuro dell'IA, nonché sulle questioni etiche e pratiche correlate. Dopo l'introduzione di ChatGPT da parte di OpenAI alla fine del 2022, altre grandi aziende tecnologiche hanno sviluppato rapidamente i propri modelli di intelligenza artificiale generativa, come Bard e poi Gemini di Google, Claude di Anthropic, Copilot di Microsoft e offerte open source come LLaMA di Meta.

L’Intelligenza artificiale di OpenAI e Meta ad un passo da una svolta epocale

Di |2024-04-12T11:51:57+02:0010 Aprile , 2024|Articoli, Intelligenza Artificiale, News, Tecnologia e applicazioni|

Due delle più importanti aziende nel settore dell’intelligenza artificiale, OpenAI e Meta, rilasceranno a breve nuove versioni dei propri modelli, più evolute e potrebbero rappresentare una svolta significativa nella corsa verso le AGI (Artificial General Intelligence) ovvero quel livello di intelligenza artificiale che potrebbe essere in grado di ragionare e pianificare. Durante un evento a Londra, tenutosi martedì, Nick Clegg presidente di Affari globali di Meta ha dichiarato: "Entro il prossimo mese, speriamo di iniziare a lanciare la nostra nuova suite di modelli di nuova generazione, Llama 3".

Claude 3 (Anthropic) sfida ChatGpt

Di |2024-03-08T14:17:01+01:008 Marzo , 2024|Articoli, Giornalismo e IA, Tecnologia e applicazioni|

Anthropic, società che sviluppa intelligenza artificiale fondata da ex dipendenti di OpenAI, lo scorso 4 marzo ha rilasciato Claude 3, una famiglia di modelli linguistici di grandi dimensioni (LLM), che, stando alle dichiarazioni di Anthropic, avrebbero raggiunto capacità “quasi umane”. La famiglia di modelli comprende tre varianti avanzate in ordine crescente di capacità: Claude 3 Haiku, Claude 3 Sonnet e Claude 3 Opus. Ogni modello successivo offre prestazioni sempre più potenti, permettendo agli utenti di trovare un equilibrio ottimale tra intelligenza, velocità e costo per le loro specifiche applicazioni. I primi rapporti indicano che Claude 3 dimostra "prestazioni avanzate in vari compiti cognitivi" e la capacità di elaborare ragionamenti.

Continua la querelle tra Il The New York Times e OpenAI – Microsoft

Di |2024-03-08T14:36:03+01:008 Marzo , 2024|Articoli, Giornalismo e IA|

È un botta e risposta oramai tra il The New York Times OpenAI e Microsoft, dal 27 dicembre 2023, quando il Times ha avviato azioni legali contro le due aziende, accusandoli di violazione di copyright. Secondo l'accusa, l'utilizzo dei chatbot sta erodendo la posizione dei tradizionali media come fonti affidabili di notizie. la scorsa settimana OpenAI ha presentato una mozione presso il tribunale federale di Manhattan, Anche Microsoft ha replicato presentando lunedì una mozione, al tribunale distrettuale degli Stati Uniti presso il distretto meridionale di New York, chiedendo al giudice di rigettare alcune parti della causa intentata dal giornale. Microsoft ha affermato che i modelli linguistici di grandi dimensioni, non hanno avuto un impatto negativo sul mercato delle notizie o sui materiali utilizzati per il loro addestramento.

Londra crea l’AI Safety Institute per affrontare i rischi dei modelli di IA

Di |2024-02-16T11:21:49+01:0014 Febbraio , 2024|Articoli, Etica e Normativa|

L'AI Safety Institute, l'organizzazione dedicata alla sicurezza nell'utilizzo e nello sviluppo dell'intelligenza artificiale inglese presentata dal primo ministro Rishi Sunak lo scorso anno, ha reso pubblici i primi risultati della sua ricerca sui modelli linguistici di grandi dimensioni (LLM), alla base di strumenti come i chatbot e i generatori di immagini. I modelli LLM hanno dimostrato di essere vulnerabili all'inganno e alla manipolazione, aprendo la porta a possibili abusi. Sui modelli testati è emerso il grave rischio che potrebbero assistere nella pianificazione di attacchi informatici. Un esempio emblematico emerso dalla ricerca è l'identificazione di un modello capace di generare personaggi sui social media per diffondere disinformazione in modo altamente convincente ed efficiente.

OpenAI annuncia il suo impegno per prevenire l’uso distorto dell’IA per le elezioni politiche

Di |2024-02-05T10:38:57+01:0026 Gennaio , 2024|Articoli, News, Tecnologia e applicazioni|

In vista dei numerosi appuntamenti elettorali previsti nel 2024, dalla politica degli Stati Uniti all'Europa, e considerando il diffuso timore legato ai deepfake, OpenAI ha recentemente annunciato, attraverso un post sul suo blog, la sua risoluta determinazione a migliorare il suo impegno per rendere sicura la piattaforma fornendo informazioni accurate sul voto, applicando politiche adeguate e migliorando la trasparenza. “Abbiamo uno sforzo trasversale dedicato al lavoro sulle elezioni, che riunisce le competenze dei nostri sistemi di sicurezza, delle intelligence sulle minacce, dei team legali, tecnologici e politici per indagare e risolvere rapidamente i potenziali abusi” scrivono da OpenAI.

SØØn – Newsletter n°2 del 12 gennaio 2024

Di |2024-02-21T16:13:27+01:0012 Gennaio , 2024|Riepiloghi|

Gli argomenti trattati questa settimana sono: - NYT reticente secondo OpenAI - L’IA alla ricerca di nuove interfacce mentre tramontano i social - I nuovi Trend per il digitale secondo il Reuters Institute - Prospettive regolatorie per l’IA nel 2024 - Un teologo per dare le linee guida all’IA italiana

Torna in cima