Alessia Bullone

Circa Alessia Bullone

Questo autore non ha riempito alcun dettaglio.
Finora Alessia Bullone ha creato 61 post nel blog.

The Atlantic e gli accordi con OpenAI

Di |2024-07-25T12:04:48+02:0025 Luglio , 2024|Ecosistema digitale, Giornalismo, Intelligenza Artificiale, News|

Nel corso dell'ultimo anno, abbiamo raccontato come numerosi editori e testate giornalistiche stiano stringendo accordi con aziende di intelligenza artificiale, in particolare con OpenAI. Tra questi accordi ricordiamo anche quello della rivista statunitense The Atlantic con OpenAI e, sebbene avessimo già esplorato i motivi generali alla base di tali intesa, in una lunga intervista rilasciata al giornale The Verge, Nicholas Thompson, CEO di The Atlantic, ha offerto una visione più approfondita delle dinamiche e delle motivazioni che hanno spinto il giornale e, più in generale, gli editori a condividere i propri dati con le aziende di IA per l'addestramento dei loro sistemi.

SØØn – Newsletter n° 26 del 19 luglio 2024

Di |2024-07-19T09:23:56+02:0019 Luglio , 2024|Riepiloghi|

Gli argomenti trattati questa settimana sono: - Apple e Microsoft rinunciano al posto nel CdA di OpenAI - Un trilione di dollari sull’IA che forse non rientrerà, secondo Goldman Sachs - Il Corriere della Sera ha un chatbot per le news di economia - Stati Uniti: i repubblicani chiedono indagini sugli accordi tecnologici con gli Emirati Arabi - OpenAI: tra chatbot e AGI, il confine tra pubblicità e realtà

Il Corriere della Sera ha un chatbot per le news di economia

Di |2024-07-17T12:07:08+02:0017 Luglio , 2024|Ecosistema digitale, Giornalismo, Intelligenza Artificiale, News|

Il Corriere della Sera è uno de primi giornali italiani ad introdurre un sistema di intelligenza artificiale ideato e progettato all’interno della sua redazione. Questa nuova app, denominata «L’Economia», è stata ideata per offrire agli abbonati del Corriere un accesso immediato e personalizzato a una vasta gamma di contenuti su mercati, lavoro, fisco, consumi, casa e pensioni. In Italia è la prima volta che un sistema di intelligenza artificiale viene utilizzato per guidare i lettori nella ricerca e nella fruizione dei contenuti informativi.

SØØn – Newsletter n° 25 del 12 luglio 2024

Di |2024-07-12T09:48:57+02:0012 Luglio , 2024|Riepiloghi|

Gli argomenti trattati questa settimana sono: - Apple entra nel CDA di OpenAI (come osservatore) mentre Nvidia fa l’occhiolino ai cinesi - JEST: la nuova frontiera per l’addestramento dei modelli di IA - La finta guerra dell’IA - Australia: Meta “cancella” le notizie? - Giornalismo etico anche con l’Intelligenza Artificiale

Giornalismo etico anche con l’Intelligenza Artificiale

Di |2024-07-11T11:49:27+02:0011 Luglio , 2024|Ecosistema digitale, Giornalismo, Intelligenza Artificiale, News|

Il Poynter Institute, nel giugno scorso ha organizzato un summit di due giorni presso la sua sede centrale a St. Petersburg, Florida per discutere dell’utilizzo etico degli strumenti di intelligenza artificiale nelle redazioni. L’evento ha riunito alcuni dei principali esperti di intelligenza artificiale, innovazione giornalistica ed etica ed inoltre è stato sponsorizzato un hackathon per creare prodotti e applicazioni giornalistiche eticamente sostenibili, che possano aiutare le redazioni a utilizzare l'IA in modo responsabile e trasparente.

Midjourney, l’IA che crea immagini, designa Trump come prossimo presidente USA

Di |2024-07-05T11:46:42+02:005 Luglio , 2024|Ecosistema digitale, Giornalismo e IA, Intelligenza Artificiale, News|

L'intelligenza artificiale sembrerebbe ormai in grado di predire anche il futuro, se chiedessimo a Midjourney, una delle aziende leader nella generazione di immagini tramite IA, di creare un’immagine del presidente degli Stati Uniti, il risultato sarebbe Donald Trump. Secondo le prove fornite da Engadget, il sito web statunitense di tecnologia e lifestyle che offre notizie, recensioni e informazioni su una vasta gamma di argomenti tecnologici, Midjourney genera immagini di Donald Trump quando gli viene richiesto di rappresentare il presidente degli Stati Uniti.

Ancora un accordo per OpenAI, questa volta con il TIME

Di |2024-07-01T11:12:06+02:001 Luglio , 2024|Ecosistema digitale, Giornalismo e IA, Intelligenza Artificiale, News|

La rivista statunitense TIME ha siglato un accordo pluriennale con OpenAI, con l'intento di espandere la portata e l'accessibilità dei suoi contenuti a livello globale. Fondata nel 1923 come il primo settimanale di notizie al mondo, TIME raggiunge un pubblico dichiarato di oltre 100 milioni di persone attraverso varie piattaforme tradizionali e digitali. L'accordo consentirà a OpenAI di accedere agli archivi storici di TIME, che coprono un secolo di avvenimenti globali, per addestrare i suoi modelli linguistici avanzati.

Le etichette discografiche contro l’IA per violazione del copyright

Di |2024-07-01T12:24:30+02:001 Luglio , 2024|Ecosistema digitale, Intelligenza Artificiale, News|

Anthropic, la società californiana all’avanguardia nel campo dell’Intelligenza Artificiale, ha lanciato lo scorso 24 giugno, Claude 3.5 Sonnet, il suo modello di intelligenza artificiale ad oggi più potente. Claude 3.5 Sonnet è la prima versione di questa nuova famiglia 3.5 di LLM (Large Language Models) che, secondo la società fondatrice, dovrebbe aumentare gli standard del settore dell’Intelligenza artificiale e promuovere miglioramenti in termini di velocità e costi, superando la versione precedente Claude 3 Opus e rivelandosi una valida alternativa a ChatGPT 4o di OpenAI e Gemini 1.5 Pro di Google e mostrandosi particolarmente adatto alla distribuzione in ambito industriale.

Da Oxford un nuovo metodo per prevenire le allucinazioni dell’IA

Di |2024-06-21T13:12:12+02:0021 Giugno , 2024|Ecosistema digitale, Intelligenza Artificiale, News|

Un gruppo di ricercatori dell'Università di Oxford ha condotto uno studio, pubblicato sulla rivista Nature, in cui si analizza un metodo per rilevare le probabilità che un modello linguistico di grandi dimensioni (LLM) manifesti "allucinazioni". Le allucinazioni sono tipicamente definite come la generazione di contenuti privi di senso o non fedeli al contenuto originale fornito e rappresentano un problema significativo per i sistemi di generazione del linguaggio naturale che utilizzano LLM, come ChatGPT o Gemini, poiché gli utenti non possono essere certi della correttezza delle risposte che gli vengono fornite.

Torna in cima