llama

SØØn – Newsletter n°9 del 23 febbraio 2024

Di |2024-03-08T14:48:13+01:001 Marzo , 2024|Riepiloghi|

Gli argomenti trattati questa settimana sono: - Google vuole salvare o uccidere il giornalismo? - 725 siti pubblicano fake news artificiali - Parola d’ordine: open source - La persuasione occulta con l’IA: una ricerca statunitense - The New York times investe ancora sull’IA - Gemini è razzista? Google blocca la produzione delle immagini - Continua la battaglia legale tra OpenAI e Il The New York Times

Parola d’ordine: open source

Di |2024-03-15T09:05:16+01:001 Marzo , 2024|Articoli, News|

’utilizzo dei modelli open source consente lo sviluppo di applicazioni e chatbot da parte di aziende indipendenti, rappresentando una spinta notevole per questo mercato. L’aspetto finanziario gioca un ruolo fondamentale e l’utilizzo di questi modelli può significare una riduzione dei costi rispetto allo sviluppo di soluzioni personalizzate o all’acquisto di licenze per modelli proprietari. Ma non è solo una questione di risparmio finanziario. I modelli open source offrono anche una maggiore flessibilità e adattabilità, gli sviluppatori possono modificarli e personalizzarli per soddisfare le esigenze specifiche dell’azienda, consentendo una maggiore flessibilità nel design delle soluzioni di intelligenza artificiale.

SØØn – Newsletter n°8 del 23 febbraio 2024

Di |2024-03-08T14:48:51+01:0023 Febbraio , 2024|Riepiloghi|

Gli argomenti trattati questa settimana sono: - La visione sull’IA del The New York Times - Le controversie sul copyright nell’addestramento dei modelli di intelligenza artificiale - IA e disinformazione: 20 big tech firmano un accordo a Monaco - Reddit vende i dati degli utenti all’IA - Anche OpenAI ha il suo text to video: nasce Sora

Le controversie sul copyright nell’addestramento dei modelli di intelligenza artificiale

Di |2024-03-08T14:37:31+01:0023 Febbraio , 2024|Articoli, Etica e Normativa|

Lo scorso luglio la comica Sarah Silverman e alti autori: Christopher Golden, Richard Kadrey, Paul Tremblay e Mona Awad avevano accusato OpenAI di aver utilizzato illecitamente i loro lavori per addestrare ChatGPT, violando il loro diritto di copyright. Le prove offerte dagli autori miravano a dimostrare che, quando richiesto, ChatGPT remixava le opere protette da copyright di migliaia di autori di libri senza consenso, compenso o credito. Il 19 febbraio 2024, la giudice federale californiana Araceli Martínez-Olguín ha respinto le accuse degli autori ritenendo che non sia stata riscontrata una somiglianza diretta tra gli output di ChatGPT e le opere originali. Martínez-Olguín ha sottolineato che i querelanti “non hanno dimostrato che gli output di ChatGPT contengano copie dirette dei libri protetti da copyright” .

Come addestrare l’Intelligenza Artificiale per far votare a destra

Di |2024-02-05T10:24:13+01:0026 Gennaio , 2024|Articoli, News, Opinioni e analisi|

Uno studio realizzato da Originality AI, startup statunitense nel settore dell’IA che si occupa di studiare le problematiche connesse alla disinformazione e distorsione dei sistemi di IA (problematiche per cui realizza delle specifiche applicazioni di analisi e verifica dei testi) rivela come la stragrande maggioranza dei principali siti di notizie ha adottato misure restrittive nei confronti dei web crawler alimentati dall'intelligenza artificiale, come riportato su Wired, in un articolo del 24 gennaio scorso. Queste restrizioni coinvolgono testate giornalistiche di rilevanza generale come The New York Times, The Washington Post e The Guardian, nonché pubblicazioni specializzate come The Atlantic e piattaforme dedicate a interessi specifici come Bleacher Report.

Torna in cima