top of page

Utilizzo dell'AI nella scrittura ed in particolare nel giornalismo

L'utilizzo dell'AI nella scrittura e nel giornalismo è una delle frontiere più importanti della tecnologia moderna. Gli engines di AI più utilizzati per la scrittura includono GPT-3, OpenAI, e XLNET.

GPT-3, sviluppato da OpenAI, è uno dei più grandi e potenti engines di AI mai creati. Ha dimostrato di essere in grado di generare testi che possono essere indistinguibili da quelli scritti da un essere umano. OpenAI, d'altra parte, è un'organizzazione senza scopo di lucro che si dedica allo sviluppo di tecnologie avanzate, tra cui l'IA, e ha contribuito allo sviluppo di GPT-3.


XLNET, sviluppato da Google, è un altro engine di IA che è stato utilizzato con successo per la scrittura di testi. A differenza di GPT-3, che è stato addestrato utilizzando una vasta quantità di dati di testo, XLNET è stato addestrato utilizzando una tecnica chiamata "pre-training" che gli consente di imparare a partire da zero e di creare testi che possono essere più naturali e meno prevedibili.

Tra gli engines di IA più attendibili per la scrittura, GPT-3 e XLNET sono sicuramente tra i più promettenti. Tuttavia, come per qualsiasi tecnologia emergente, ci sono anche rischi da tenere in considerazione. Uno dei più grandi rischi associati all'utilizzo dell'AI nella scrittura è che possa essere utilizzata per creare contenuti falsi o ingannevoli. Inoltre, l'utilizzo dell'AI potrebbe avere un impatto sull'occupazione, poiché potrebbe sostituire gli esseri umani nella scrittura di testi.

In conclusione, l'utilizzo dell'AI nella scrittura e nel giornalismo rappresenta una delle frontiere più importanti della tecnologia moderna. Gli engines di AI più utilizzati per la scrittura sono GPT-3, OpenAI, e XLNET, e sono tutti molto promettenti. Tuttavia, è importante considerare anche i rischi associati all'utilizzo dell'AI, come la creazione di contenuti falsi e l'impatto sull'occupazione.



References


Stiennon, Nisan, et al. “Learning to summarize with human feedback.” Advances in Neural Information Processing Systems 33 (2020): 3008-3021. ↩︎

Gao, Leo, John Schulman, and Jacob Hilton. “Scaling Laws for Reward Model Overoptimization.” arXiv preprint arXiv:2210.10760 (2022). ↩︎

The inspiration for this contest comes in part from work by Kenway, Josh, Camille François, Sasha Costanza-Chock, Inioluwa Deborah Raji, and Joy Buolamwini. Bug Bounties For Algorithmic Harms? Lessons from Cybersecurity Vulnerability Disclosure for Algorithmic Harms Discovery, Disclosure, and Redress. Washington, DC: Algorithmic Justice League. January 2022. Available at https://ajl.org/bugs. See also work by Brundage, Miles, Avin, Shahar, Wang, Jasmine, Belfield, Haydn, and Gretchen Krueger et al. “Toward Trustworthy AI Development: Mechanisms for Supporting Verifiable Claims,” April 2020. Available at https://arxiv.org/abs/2004.07213. See an earlier instance of such a competition at HackerOne. 2021b. “Twitter Algorithmic Bias.” HackerOne.


Finally, see early published work on this topic from Rubinovitz, JB, “Bias Bounty Programs as a Method of Combatting Bias in AI,” August 2018. Available at


Comments


bottom of page