CURIOSITÀ: Un nuovo generatore di immagini di X può diffondere misinformazione

Del nuovo generatore di immagini di X, accessibile tramite il chatbot Grok, e della sua potenziale pericolosità come diffusore di misinformazione ne parla NewsGuard in un suo ultimo report. L’analisi ha mostrato che Grok ha una probabilità maggiore del 35% rispetto ad altri generatori come DALL-E e Midjourney di produrre immagini fuorvianti o false su temi di attualità.

Grok, disponibile da novembre 2023, è stato aggiornato ad agosto 2024 per includere la generazione di immagini, ma senza adeguate misure di sicurezza. Durante un test su 20 richieste basate su narrazioni false, Grok ha prodotto immagini problematiche nell’80% dei casi, contro il 45% di Midjourney e il 10% di DALL-E. Mentre OpenAI e Midjourney hanno introdotto misure per contrastare la disinformazione, X non ha fornito risposte concrete sulle preoccupazioni sollevate da NewsGuard.

Approfondisci al seguente LINK
image18-300x280

1 Mi Piace

In questo caso, come data scientist, sono sempre curioso dei processi e degli algoritmi che sostengono questi programmi - cosa c’è nella configurazione di Grok che rende tanto più probabile la generazione di immagini fuorvianti o false? E in che misura questo è un prodotto del l’intenzione umana? Purtroppo molte aziende di questo nuovo spazio dell’IA generativa non sono disposte a condividere i loro segreti.

1 Mi Piace