The Impact of Generative AI on Truth and Trust Tutorial

Our video details the power of technologies like DeepMind, GPT-4, and Midjourney, true players in digital transformation, blurring the lines between reality and fiction. These nearly perfect digital counterfeits prompt us to ask: "How do we distinguish the real from the fake?". The 2018 Tesla incident illustrates the danger of misleading information in the digital world. In the digital era, companies and brands can see their reputation turn on a single statement. But it's also democracy and social cohesion that are threatened by this AI-generated misinformation. Discover in our video the innovative initiatives to combat misinformation. In this digital jungle, finding the truth requires more discernment and vigilance than ever.

  • 3:16
  • 1827 views

Objectifs :

This document aims to explore the impact of artificial intelligence on society, particularly focusing on the implications of generative AI and deep fakes in the business world and beyond. It highlights the vulnerabilities that arise from misinformation and the importance of countermeasures to restore trust.


Chapitres :

  1. The Rise of Generative AI
    Artificial intelligence is transforming our world in unprecedented ways. Generative AIs have exceeded our expectations, now capable of composing melodies akin to those of great musicians, writing articles in the style of renowned journalists, reproducing voices of our favorite actors and singers, and generating faces and videos that appear strikingly realistic, as if they were straight out of a Hollywood movie. What was once confined to the realm of science fiction is now manifesting in real life through applications like DeepMind, GPT-4, and MidJourney.
  2. The Controversy of Deep Fakes
    Deep fakes represent one of the most controversial applications of AI technology. Imagine a video of a prominent figure making a sensational statement that they never actually made. In a society that heavily relies on visual and auditory information, the consequences of such misinformation can be catastrophic. Businesses are particularly susceptible; a single manipulated video can instigate a financial crisis, tarnish years of branding, or create chaos among shareholders and customers.
  3. The Case of Tesla: A Lesson in Misinformation
    A notable example illustrating the vulnerability of businesses to misinformation is the case of Tesla in 2018. In August of that year, Elon Musk, CEO of Tesla, tweeted about considering taking the company private, claiming he had secured funding. This tweet caused Tesla's stock price to surge by over 10%. However, it was later revealed that Musk did not have a concrete plan or secured funding. The SEC (Securities and Exchange Commission) subsequently sued Musk for misleading investors. While this incident did not involve deep fakes, it underscores how a single statement—true or false—can significantly impact a company's stock price, reputation, and investor trust.
  4. Potential Consequences of AI-Generated Misinformation
    Translating this scenario to the realm of AI-generated content, one can envision the dire consequences if a fabricated video of a major company's CEO were to surface, falsely announcing disruptive news. Financial markets could react impulsively, often before verifying the authenticity of the statement. On a societal level, the stakes are even higher; elections could be manipulated, tensions could escalate, and families could be torn apart by conflicting narratives. When the line between information and misinformation blurs, the very foundation of our democracy is challenged.
  5. Countermeasures Against Misinformation
    Despite these challenges, there is hope. Journalists, researchers, and technologists are diligently working to detect and combat these forgeries. They are developing tools to identify deep fakes, educating the public on how to recognize warning signs, and striving to restore trust in an era characterized by post-truth. We find ourselves at a critical juncture; as technology advances, we must progress alongside it—always informed, vigilant, and prepared to distinguish truth from fiction.

FAQ :

What is generative AI?

Generative AI refers to a type of artificial intelligence that can create new content, such as text, images, or music, based on the patterns it has learned from existing data.

How can deepfakes impact businesses?

Deepfakes can severely impact businesses by spreading misinformation that can lead to financial crises, damage reputations, and erode trust among customers and investors.

What are some examples of deepfake technology?

Examples of deepfake technology include videos that convincingly portray individuals saying or doing things they never actually did, such as a CEO making false announcements.

What measures are being taken to combat misinformation?

Journalists, researchers, and technologists are developing tools to detect deepfakes, educating the public on how to identify misleading content, and working to restore trust in information sources.

What was the Tesla incident in 2018?

In 2018, Elon Musk tweeted about taking Tesla private, which led to a surge in stock prices. However, it was later revealed that he did not have a concrete plan, resulting in a lawsuit from the SEC for misleading investors.


Quelques cas d'usages :

Corporate Communication

Businesses can utilize generative AI to create engaging content for marketing and communication. However, they must also be vigilant against deepfakes that could misrepresent their messages or executives.

Crisis Management

In the event of misinformation spreading about a company, organizations can implement rapid response strategies to clarify facts and restore trust, using AI tools to monitor and analyze public sentiment.

Media and Journalism

Journalists can leverage AI tools to fact-check information and identify deepfakes, ensuring the integrity of news reporting and helping to educate the public on recognizing misinformation.

Financial Analysis

Investors and analysts can use AI to assess the credibility of information before making decisions, particularly in volatile markets where misinformation can lead to significant financial losses.

Political Campaigning

Political organizations can use generative AI to create campaign materials but must also be aware of the risks posed by deepfakes that could distort candidates' messages or actions.


Glossaire :

Artificial Intelligence (AI)

A branch of computer science that aims to create machines capable of performing tasks that typically require human intelligence, such as understanding natural language, recognizing patterns, and making decisions.

Generative AI

A type of artificial intelligence that can generate new content, such as text, images, or music, based on the data it has been trained on.

DeepMind

A British artificial intelligence company known for its work in deep learning and reinforcement learning, particularly in developing AI systems that can play complex games.

GPT-4

The fourth iteration of the Generative Pre-trained Transformer model developed by OpenAI, capable of understanding and generating human-like text.

MidJourney

An AI program that generates images from textual descriptions, allowing users to create visual content based on their ideas.

Deepfakes

Synthetic media in which a person’s likeness is replaced with someone else's, often used to create realistic but misleading videos.

Securities and Exchange Commission (SEC)

A U.S. government agency responsible for enforcing the laws concerning the trading of securities and protecting investors.

Misinformation

False or misleading information spread regardless of intent to deceive, which can have serious implications in various contexts, including business and politics.

Post-truth era

A cultural and political context in which public opinion is shaped more by emotions and personal beliefs than by objective facts.

00:00:04
Artificial intelligence is shaping our
00:00:05
world in ways we never could have imagined.
00:00:09
Generative AIS have
00:00:10
transcended our expectations.
00:00:12
Today, they can compose melodies
00:00:14
similar to those of great musicians,
00:00:16
write articles in the style
00:00:18
of renowned journalists,
00:00:19
reproduce voices evoking our
00:00:20
favorite actors and singers,
00:00:22
and generate faces and videos so
00:00:24
realistic they seem like they're
00:00:25
straight out of a Hollywood movie.
00:00:27
What was once relegated to the
00:00:29
pages of science fiction novels is
00:00:31
now coming to life before our eyes
00:00:33
through applications like DeepMind,
00:00:35
GPT 4, or Mid Journey.
00:00:38
Deep fakes are among the most controversial
00:00:40
applications of this technology.
00:00:42
Imagine a video of an influential
00:00:44
personality making an explosive statement.
00:00:46
Except this statement was never made.
00:00:48
In a world where we rely
00:00:50
on what we see and hear,
00:00:51
the implications can be devastating.
00:00:53
Businesses are particularly vulnerable.
00:00:55
A single doctored video can
00:00:57
trigger a financial crisis,
00:00:59
ruin years of branding, or sow chaos
00:01:02
among shareholders and customers.
00:01:04
But it's not just about money.
00:01:05
Trust, once lost, is hard to restore.
00:01:09
In an interconnected corporate world,
00:01:11
misinformation can quickly go viral,
00:01:13
affecting not just one company,
00:01:15
but an entire industry.
00:01:17
One of the most striking examples
00:01:19
that can illustrate the vulnerability
00:01:21
of businesses to misinformation is
00:01:23
the case of Tesla in 2018.
00:01:26
In August 2018, Elon Musk,
00:01:28
CEO of Tesla, tweeted that he was
00:01:31
considering taking Tesla private
00:01:32
and that he had funding secured.
00:01:35
This statement led to a surge in
00:01:37
Tesla stock price of over 10%.
00:01:39
However, it later turned out that
00:01:41
Musk did not have a concrete plan
00:01:43
or secured funding for such a move.
00:01:45
The SEC Securities and Exchange
00:01:47
Commission then sued Musk
00:01:49
for misleading investors.
00:01:50
Although this is not a direct
00:01:53
example of a deep fake or
00:01:55
AI generated misinformation,
00:01:56
it shows how a single statement,
00:01:58
whether true or false,
00:02:00
can have major repercussions
00:02:01
on a company's stock price,
00:02:03
reputation, and investor trust. Transposing
00:02:07
this to the A is ability
00:02:08
to create fake content.
00:02:10
One can imagine the potential
00:02:12
consequences if, for example, adopted
00:02:14
video of a major company's CEO were
00:02:17
released falsely announcing disruptive news.
00:02:19
Financial markets could react
00:02:21
before even verifying the
00:02:23
authenticity of the statement.
00:02:24
On a societal level,
00:02:26
the consequences are even greater.
00:02:28
Elections can be rigged.
00:02:29
Tensions can be exacerbated.
00:02:31
Families can be divided
00:02:33
by contradictory truths.
00:02:35
When information becomes
00:02:37
indistinguishable from misinformation,
00:02:38
the very structure of our
00:02:40
democracy is put to the test.
00:02:42
But it's not all doom and gloom.
00:02:44
There are countermeasures.
00:02:45
Journalists, researchers,
00:02:47
and technologists are working tirelessly
00:02:49
to detect and combat these forgeries.
00:02:52
They are developing tools to identify
00:02:55
deep fakes, educating the public
00:02:57
on how to spot telltale signs,
00:02:59
and attempting to restore
00:03:00
trust in the post truth era.
00:03:03
We are at a crossroads.
00:03:05
Technology is advancing and
00:03:06
we must move forward with it,
00:03:09
always informed,
00:03:10
always vigilant,
00:03:11
and always ready to discern
00:03:14
truth from fiction.

No elements match your search in this video....
Do another search or back to content !

 

00:00:04
A inteligência artificial está a moldar a nossa
00:00:05
mundo de maneiras que nunca poderíamos ter imaginado.
00:00:09
Os AIS generativos têm
00:00:10
transcendeu as nossas expectativas.
00:00:12
Hoje, podem compor melodias
00:00:14
semelhantes aos de grandes músicos,
00:00:16
escrever artigos no estilo
00:00:18
de jornalistas de renome,
00:00:19
reproduzir vozes que evocam a nossa
00:00:20
atores e cantores favoritos,
00:00:22
e gerar rostos e vídeos assim
00:00:24
realistas, parecem ser
00:00:25
saído diretamente de um filme de Hollywood.
00:00:27
O que antes era relegado ao
00:00:29
páginas de romances de ficção científica é
00:00:31
agora ganhando vida diante dos nossos olhos
00:00:33
através de aplicações como a DeepMind,
00:00:35
GPT 4, ou Mid Journey.
00:00:38
Deep fakes estão entre as mais controversas
00:00:40
aplicações desta tecnologia.
00:00:42
Imagine um vídeo de um influente
00:00:44
personalidade fazendo uma declaração explosiva.
00:00:46
Só que essa afirmação nunca foi feita.
00:00:48
Num mundo em que confiamos
00:00:50
sobre o que vemos e ouvimos,
00:00:51
As implicações podem ser devastadoras.
00:00:53
As empresas são particularmente vulneráveis.
00:00:55
Um único vídeo manipulado pode
00:00:57
desencadear uma crise financeira,
00:00:59
arruinar anos de branding, ou semear o caos
00:01:02
entre acionistas e clientes.
00:01:04
Mas não se trata apenas de dinheiro.
00:01:05
A confiança, uma vez perdida, é difícil de restaurar.
00:01:09
Num mundo corporativo interligado,
00:01:11
a desinformação pode rapidamente tornar-se viral,
00:01:13
não afetando apenas uma empresa,
00:01:15
mas toda uma indústria.
00:01:17
Um dos exemplos mais marcantes
00:01:19
Isso pode ilustrar a vulnerabilidade
00:01:21
das empresas à desinformação é
00:01:23
o caso da Tesla em 2018.
00:01:26
Em agosto de 2018, Elon Musk,
00:01:28
CEO da Tesla, tuitou que estava
00:01:31
considerando tornar a Tesla privada
00:01:32
e que tinha financiamento assegurado.
00:01:35
Esta declaração levou a um aumento da
00:01:37
Preço das ações da Tesla de mais de 10%.
00:01:39
No entanto, mais tarde descobriu-se que
00:01:41
Musk não tinha um plano concreto
00:01:43
ou garantiu financiamento para tal movimento.
00:01:45
A SEC Valores Mobiliários
00:01:47
Comissão processou Musk
00:01:49
para induzir os investidores em erro.
00:01:50
Embora este não seja um direto
00:01:53
exemplo de deep fake ou
00:01:55
IA gerou desinformação,
00:01:56
mostra como uma única declaração,
00:01:58
se é verdadeiro ou falso,
00:02:00
pode ter repercussões importantes
00:02:01
sobre o preço das ações de uma empresa,
00:02:03
reputação e confiança dos investidores. Transpondo
00:02:07
isso para o A é capacidade
00:02:08
para criar conteúdo falso.
00:02:10
Pode-se imaginar o potencial
00:02:12
consequências se, por exemplo, for adotada
00:02:14
vídeo do CEO de uma grande empresa foram
00:02:17
divulgou falsamente anunciando notícias perturbadoras.
00:02:19
Os mercados financeiros podem reagir
00:02:21
antes mesmo de verificar o
00:02:23
autenticidade da declaração.
00:02:24
A nível societal,
00:02:26
as consequências são ainda maiores.
00:02:28
As eleições podem ser fraudadas.
00:02:29
As tensões podem ser exacerbadas.
00:02:31
As famílias podem ser divididas
00:02:33
por verdades contraditórias.
00:02:35
Quando a informação se torna
00:02:37
indistinguível da desinformação,
00:02:38
a própria estrutura do nosso
00:02:40
A democracia é posta à prova.
00:02:42
Mas nem tudo é desgraça.
00:02:44
Há contramedidas.
00:02:45
Jornalistas, investigadores,
00:02:47
e os tecnólogos estão trabalhando incansavelmente
00:02:49
para detetar e combater estas falsificações.
00:02:52
Estão a desenvolver ferramentas para identificar
00:02:55
deep fakes, educando o público
00:02:57
sobre como detetar sinais reveladores,
00:02:59
e tentando restaurar
00:03:00
Confie na era da pós-verdade.
00:03:03
Estamos numa encruzilhada.
00:03:05
A tecnologia está a avançar e
00:03:06
temos de avançar com ela,
00:03:09
sempre informado,
00:03:10
sempre vigilante,
00:03:11
e sempre pronto a discernir
00:03:14
verdade da ficção.

No elements match your search in this video....
Do another search or back to content !

 

00:00:04
L'intelligenza artificiale sta plasmando il nostro
00:00:05
mondo in modi che non avremmo mai potuto immaginare.
00:00:09
Gli AIS generativi hanno
00:00:10
hanno superato le nostre aspettative.
00:00:12
Oggi possono comporre melodie
00:00:14
simili a quelle dei grandi musicisti,
00:00:16
scrivere articoli nello stile
00:00:18
di giornalisti rinomati,
00:00:19
riprodurre voci che evocano le nostre
00:00:20
attori e cantanti preferiti,
00:00:22
e genera volti e video così
00:00:24
sembrano realistici
00:00:25
direttamente da un film di Hollywood.
00:00:27
Quello che una volta era relegato al
00:00:29
pagine di romanzi di fantascienza sono
00:00:31
ora prende vita davanti ai nostri occhi
00:00:33
tramite applicazioni come DeepMind,
00:00:35
GPT 4 o Mid Journey.
00:00:38
I deep fake sono tra i più controversi
00:00:40
applicazioni di questa tecnologia.
00:00:42
Immagina un video di un influente
00:00:44
personalità che fa una dichiarazione esplosiva.
00:00:46
Solo che questa dichiarazione non è mai stata fatta.
00:00:48
In un mondo in cui contiamo
00:00:50
su ciò che vediamo e sentiamo,
00:00:51
le implicazioni possono essere devastanti.
00:00:53
Le imprese sono particolarmente vulnerabili.
00:00:55
Un singolo video ritoccato può
00:00:57
innescare una crisi finanziaria,
00:00:59
rovinare anni di branding o seminare il caos
00:01:02
tra azionisti e clienti.
00:01:04
Ma non si tratta solo di soldi.
00:01:05
La fiducia, una volta persa, è difficile da ripristinare.
00:01:09
In un mondo aziendale interconnesso,
00:01:11
la disinformazione può diventare rapidamente virale,
00:01:13
interessando non una sola azienda,
00:01:15
ma un intero settore.
00:01:17
Uno degli esempi più eclatanti
00:01:19
questo può illustrare la vulnerabilità
00:01:21
delle aziende alla disinformazione è
00:01:23
il caso di Tesla nel 2018.
00:01:26
Nell'agosto 2018, Elon Musk,
00:01:28
CEO di Tesla, ha twittato che lo era
00:01:31
considerando di prendere Tesla in privato
00:01:32
e che aveva i finanziamenti garantiti.
00:01:35
Questa dichiarazione ha portato a un aumento di
00:01:37
Prezzo delle azioni Tesla superiore al 10%.
00:01:39
Tuttavia, in seguito si è scoperto che
00:01:41
Musk non aveva un piano concreto
00:01:43
o ha ottenuto finanziamenti per una mossa del genere.
00:01:45
La SEC Securities and Exchange
00:01:47
La Commissione ha quindi citato in giudizio Musk
00:01:49
per aver ingannato gli investitori.
00:01:50
Anche se non si tratta di una diretta
00:01:53
esempio di deep fake o
00:01:55
disinformazione generata dall'IA,
00:01:56
mostra come una singola affermazione,
00:01:58
se è vero o falso,
00:02:00
può avere importanti ripercussioni
00:02:01
sul prezzo delle azioni di una società,
00:02:03
reputazione e fiducia degli investitori. Recepimento
00:02:07
questa alla A è abilità
00:02:08
per creare contenuti falsi.
00:02:10
Si può immaginare il potenziale
00:02:12
conseguenze se, ad esempio, adottate
00:02:14
il video del CEO di una grande azienda erano
00:02:17
rilasciato annunciando falsamente notizie dirompenti.
00:02:19
I mercati finanziari potrebbero reagire
00:02:21
prima ancora di verificare il
00:02:23
autenticità della dichiarazione.
00:02:24
A livello sociale,
00:02:26
le conseguenze sono ancora maggiori.
00:02:28
Le elezioni possono essere truccate.
00:02:29
Le tensioni possono essere esacerbate.
00:02:31
Le famiglie possono essere divise
00:02:33
da verità contraddittorie.
00:02:35
Quando l'informazione diventa
00:02:37
indistinguibile dalla disinformazione,
00:02:38
la struttura stessa del nostro
00:02:40
la democrazia è messa alla prova.
00:02:42
Ma non è tutto triste e triste.
00:02:44
Ci sono delle contromisure.
00:02:45
Giornalisti, ricercatori,
00:02:47
e i tecnologi lavorano senza sosta
00:02:49
per individuare e combattere queste contraffazioni.
00:02:52
Stanno sviluppando strumenti per identificare
00:02:55
fake profondi, per educare il pubblico
00:02:57
su come individuare i segni rivelatori,
00:02:59
e tentando di ripristinare
00:03:00
fiducia nell'era della post-verità.
00:03:03
Siamo a un bivio.
00:03:05
La tecnologia sta avanzando e
00:03:06
dobbiamo andare avanti con essa,
00:03:09
sempre informati,
00:03:10
sempre vigile,
00:03:11
e sempre pronto a discernere
00:03:14
la verità dalla finzione.

No elements match your search in this video....
Do another search or back to content !

 

00:00:04
Искусственный интеллект формирует нашу
00:00:05
мир так, как мы и представить себе не могли.
00:00:09
Генеративные ИИ имеют
00:00:10
превзошли наши ожидания.
00:00:12
Сегодня они могут сочинять мелодии
00:00:14
похожие на песни великих музыкантов,
00:00:16
пишите статьи в стиле
00:00:18
известных журналистов,
00:00:19
воспроизводите голоса, вызывающие наши
00:00:20
любимые актеры и певцы,
00:00:22
и создавайте лица и видео, чтобы
00:00:24
реалистичные, они выглядят так, как будто они
00:00:25
прямо из голливудского фильма.
00:00:27
То, что когда-то было отнесено к
00:00:29
страницы научно-фантастических романов — это
00:00:31
теперь оживает на наших глазах
00:00:33
через такие приложения, как DeepMind,
00:00:35
GPT 4 или Mid Journey.
00:00:38
Глубокие подделки — одни из самых противоречивых
00:00:40
области применения этой технологии.
00:00:42
Представьте себе видео влиятельного человека
00:00:44
личность, делающая взрывное заявление.
00:00:46
Вот только это заявление так и не было сделано.
00:00:48
В мире, где мы полагаемся
00:00:50
на то, что мы видим и слышим,
00:00:51
последствия могут быть катастрофическими.
00:00:53
Предприятия особенно уязвимы.
00:00:55
Одно подделанное видео может
00:00:57
спровоцировать финансовый кризис,
00:00:59
разрушить многолетний брендинг или посеять хаос
00:01:02
среди акционеров и клиентов.
00:01:04
Но дело не только в деньгах.
00:01:05
Доверие, потерянное, трудно восстановить.
00:01:09
Во взаимосвязанном корпоративном мире
00:01:11
дезинформация может быстро распространяться по всему миру,
00:01:13
затрагивает не только одну компанию,
00:01:15
а целую отрасль.
00:01:17
Один из самых ярких примеров
00:01:19
который может проиллюстрировать уязвимость
00:01:21
предприятий к дезинформации — это
00:01:23
случай с Tesla в 2018 году.
00:01:26
В августе 2018 года Илон Маск,
00:01:28
Генеральный директор Tesla написал в Твиттере, что он
00:01:31
рассматривает возможность передачи Tesla в частную собственность
00:01:32
и что он получил финансирование.
00:01:35
Это заявление привело к резкому росту
00:01:37
Цена акций Tesla превысила 10%.
00:01:39
Однако позже выяснилось, что
00:01:41
У Маска не было конкретного плана
00:01:43
или обеспечил финансирование такого шага.
00:01:45
Ценные бумаги и биржа SEC
00:01:47
Затем Комиссия подала в суд на Маска
00:01:49
за введение инвесторов в заблуждение.
00:01:50
Хотя это и не прямое
00:01:53
пример глубокой подделки или
00:01:55
дезинформация, генерируемая искусственным интеллектом,
00:01:56
она показывает, как одно утверждение,
00:01:58
истинное или ложное,
00:02:00
может иметь серьезные последствия
00:02:01
на цену акций компании,
00:02:03
репутация и доверие инвесторов. Транспонирование
00:02:07
это способность в точку А
00:02:08
создавать поддельный контент.
00:02:10
Можно представить себе потенциал
00:02:12
последствия, например, принятия
00:02:14
видео генерального директора крупной компании было
00:02:17
выпущены ложные новости, в которых содержались деструктивные новости.
00:02:19
Финансовые рынки могут отреагировать
00:02:21
еще до того, как вы проверите
00:02:23
подлинность заявления.
00:02:24
На социальном уровне
00:02:26
последствия еще серьезнее.
00:02:28
Выборы могут быть сфальсифицированы.
00:02:29
Напряженность может обостриться.
00:02:31
Семьи могут быть разделены
00:02:33
на основании противоречивых истин.
00:02:35
Когда информация становится
00:02:37
неотличима от дезинформации,
00:02:38
сама структура нашего
00:02:40
демократия подвергается испытанию.
00:02:42
Но не все так мрачно.
00:02:44
Есть контрмеры.
00:02:45
Журналисты, исследователи,
00:02:47
и технологи работают не покладая рук
00:02:49
для выявления этих подделок и борьбы с ними.
00:02:52
Они разрабатывают инструменты для идентификации
00:02:55
глубокие подделки, просвещающие общественность
00:02:57
о том, как распознать явные признаки,
00:02:59
и попытка восстановления
00:03:00
доверие в эпоху постправды.
00:03:03
Мы находимся на перепутье.
00:03:05
Технологии развиваются и
00:03:06
мы должны двигаться вперед,
00:03:09
всегда в курсе событий,
00:03:10
всегда бдителен,
00:03:11
и всегда готов разглядеть
00:03:14
правду от вымысла.

No elements match your search in this video....
Do another search or back to content !

 

00:00:04
La inteligencia artificial está dando forma a nuestra
00:00:05
el mundo de formas que nunca hubiéramos imaginado.
00:00:09
Los AIS generativos tienen
00:00:10
trascendió nuestras expectativas.
00:00:12
Hoy en día, pueden componer melodías
00:00:14
similares a las de los grandes músicos,
00:00:16
escribe artículos al estilo
00:00:18
de periodistas de renombre,
00:00:19
reproducir voces que evocan nuestros
00:00:20
actores y cantantes favoritos,
00:00:22
y genera rostros y vídeos para
00:00:24
realistas, parece que son
00:00:25
sacado directamente de una película de Hollywood.
00:00:27
Lo que una vez fue relegado al
00:00:29
páginas de novelas de ciencia ficción es
00:00:31
ahora está cobrando vida ante nuestros ojos
00:00:33
a través de aplicaciones como DeepMind,
00:00:35
GPT 4 o Mid Journey.
00:00:38
Las falsificaciones profundas se encuentran entre las más controvertidas
00:00:40
aplicaciones de esta tecnología.
00:00:42
Imagina un vídeo de un influyente
00:00:44
personalidad haciendo una declaración explosiva.
00:00:46
Excepto que esta declaración nunca se hizo.
00:00:48
En un mundo en el que confiamos
00:00:50
en lo que vemos y oímos,
00:00:51
las implicaciones pueden ser devastadoras.
00:00:53
Las empresas son particularmente vulnerables.
00:00:55
Un solo vídeo manipulado puede
00:00:57
desencadenar una crisis financiera,
00:00:59
arruinar años de marca o sembrar el caos
00:01:02
entre los accionistas y los clientes.
00:01:04
Pero no se trata solo de dinero.
00:01:05
La confianza, una vez perdida, es difícil de recuperar.
00:01:09
En un mundo empresarial interconectado,
00:01:11
la información errónea puede convertirse rápidamente en viral,
00:01:13
afectando no solo a una empresa,
00:01:15
sino a toda una industria.
00:01:17
Uno de los ejemplos más llamativos
00:01:19
eso puede ilustrar la vulnerabilidad
00:01:21
de las empresas a la desinformación
00:01:23
el caso de Tesla en 2018.
00:01:26
En agosto de 2018, Elon Musk,
00:01:28
CEO de Tesla, tuiteó que era
00:01:31
considerando convertir Tesla en privado
00:01:32
y que tenía asegurada la financiación.
00:01:35
Esta declaración provocó un aumento en
00:01:37
El precio de las acciones de Tesla supera el 10%.
00:01:39
Sin embargo, más tarde resultó que
00:01:41
Musk no tenía un plan concreto
00:01:43
o obtuvo fondos para tal medida.
00:01:45
La Bolsa y Valores de la SEC
00:01:47
La Comisión luego demandó a Musk
00:01:49
por engañar a los inversores.
00:01:50
Aunque esto no es un directo
00:01:53
ejemplo de una falsificación profunda o
00:01:55
información errónea generada por la IA,
00:01:56
muestra cómo una sola declaración,
00:01:58
ya sea verdadera o falsa,
00:02:00
puede tener repercusiones importantes
00:02:01
sobre el precio de las acciones de una empresa,
00:02:03
reputación y confianza de los inversores. Transposición
00:02:07
esto a la A es habilidad
00:02:08
para crear contenido falso.
00:02:10
Uno puede imaginar el potencial
00:02:12
consecuencias si, por ejemplo, se adopta
00:02:14
los vídeos del director ejecutivo de una importante empresa fueron
00:02:17
publicado anunciando falsamente noticias disruptivas.
00:02:19
Los mercados financieros podrían reaccionar
00:02:21
incluso antes de verificar el
00:02:23
autenticidad de la declaración.
00:02:24
A nivel social,
00:02:26
las consecuencias son aún mayores.
00:02:28
Las elecciones se pueden amañar.
00:02:29
Las tensiones pueden exacerbarse.
00:02:31
Las familias pueden dividirse
00:02:33
por verdades contradictorias.
00:02:35
Cuando la información se convierte
00:02:37
indistinguible de la desinformación,
00:02:38
la estructura misma de nuestro
00:02:40
la democracia se pone a prueba.
00:02:42
Pero no todo es pesimismo.
00:02:44
Hay contramedidas.
00:02:45
Periodistas, investigadores,
00:02:47
y los tecnólogos trabajan sin descanso
00:02:49
para detectar y combatir estas falsificaciones.
00:02:52
Están desarrollando herramientas para identificar
00:02:55
falsificaciones profundas, educando al público
00:02:57
sobre cómo detectar señales reveladoras,
00:02:59
e intentando restaurar
00:03:00
confianza en la era de la posverdad.
00:03:03
Estamos en una encrucijada.
00:03:05
La tecnología avanza y
00:03:06
debemos seguir adelante con ello,
00:03:09
siempre informados,
00:03:10
siempre vigilante,
00:03:11
y siempre dispuesto a discernir
00:03:14
la verdad de la ficción.

No elements match your search in this video....
Do another search or back to content !

 

00:00:04
Kunstmatige intelligentie vormt onze
00:00:05
wereld op manieren die we ons nooit hadden kunnen voorstellen.
00:00:09
Generatieve AIS hebben
00:00:10
overtrof onze verwachtingen.
00:00:12
Tegenwoordig kunnen ze melodieën componeren
00:00:14
vergelijkbaar met die van geweldige muzikanten,
00:00:16
schrijf artikelen in de stijl
00:00:18
van gerenommeerde journalisten,
00:00:19
stemmen reproduceren die onze oproepen
00:00:20
favoriete acteurs en zangers,
00:00:22
en genereer zo gezichten en video's
00:00:24
realistisch, ze lijken alsof ze
00:00:25
rechtstreeks uit een Hollywood-film.
00:00:27
Wat ooit werd verbannen naar de
00:00:29
pagina's met sciencefictionromans is
00:00:31
komt nu voor onze ogen tot leven
00:00:33
via toepassingen zoals DeepMind,
00:00:35
GPT 4, of Mid Journey.
00:00:38
Diepe vervalsingen behoren tot de meest controversiële
00:00:40
toepassingen van deze technologie.
00:00:42
Stel je een video voor van een invloedrijke
00:00:44
persoonlijkheid die een explosief statement maakt.
00:00:46
Maar deze verklaring is nooit afgelegd.
00:00:48
In een wereld waar we vertrouwen
00:00:50
over wat we zien en horen,
00:00:51
de gevolgen kunnen verwoestend zijn.
00:00:53
Bedrijven zijn bijzonder kwetsbaar.
00:00:55
Een enkele bewerkte video kan
00:00:57
een financiële crisis veroorzaken,
00:00:59
jaren van branding verpesten, of chaos zaaien
00:01:02
onder aandeelhouders en klanten.
00:01:04
Maar het gaat niet alleen om geld.
00:01:05
Als vertrouwen eenmaal verloren is, is het moeilijk te herstellen.
00:01:09
In een onderling verbonden bedrijfswereld
00:01:11
verkeerde informatie kan snel viraal gaan,
00:01:13
die niet slechts één bedrijf betreft,
00:01:15
maar een hele branche.
00:01:17
Een van de meest opvallende voorbeelden
00:01:19
dat de kwetsbaarheid kan illustreren
00:01:21
van bedrijven naar verkeerde informatie is
00:01:23
het geval van Tesla in 2018.
00:01:26
In augustus 2018 heeft Elon Musk,
00:01:28
CEO van Tesla, twitterde dat hij
00:01:31
overweegt Tesla privé te nemen
00:01:32
en dat hij financiering had veiliggesteld.
00:01:35
Deze verklaring leidde tot een toename van
00:01:37
Tesla-aandelenkoers van meer dan 10%.
00:01:39
Later bleek echter dat
00:01:41
Musk had geen concreet plan
00:01:43
of verzekerde financiering voor een dergelijke verhuizing.
00:01:45
De SEC Securities and Exchange
00:01:47
De Commissie heeft vervolgens Musk aangeklaagd
00:01:49
voor misleidende investeerders.
00:01:50
Hoewel dit geen directe
00:01:53
voorbeeld van een deep fake of
00:01:55
AI genereerde verkeerde informatie,
00:01:56
het laat zien hoe een enkele verklaring,
00:01:58
of het nu waar of onwaar is,
00:02:00
kan grote gevolgen hebben
00:02:01
op de aandelenkoers van een bedrijf,
00:02:03
reputatie en vertrouwen van investeerders. Transponeren
00:02:07
dit naar de A is vermogen
00:02:08
om valse inhoud te creëren.
00:02:10
Men kan zich het potentieel voorstellen
00:02:12
gevolgen indien bijvoorbeeld aangenomen
00:02:14
video van de CEO van een groot bedrijf was
00:02:17
uitgebracht waarin ten onrechte ontwrichtend nieuws werd aangekondigd.
00:02:19
Financiële markten zouden kunnen reageren
00:02:21
voordat zelfs maar wordt geverifieerd
00:02:23
authenticiteit van de verklaring.
00:02:24
Op maatschappelijk niveau
00:02:26
de gevolgen zijn nog groter.
00:02:28
Verkiezingen kunnen worden vervalst.
00:02:29
De spanningen kunnen worden verergerd.
00:02:31
Families kunnen verdeeld worden
00:02:33
door tegenstrijdige waarheden.
00:02:35
Wanneer informatie wordt
00:02:37
niet te onderscheiden van verkeerde informatie,
00:02:38
de structuur zelf van onze
00:02:40
democratie wordt op de proef gesteld.
00:02:42
Maar het is niet allemaal kommer en kwel.
00:02:44
Er zijn tegenmaatregelen.
00:02:45
Journalisten, onderzoekers,
00:02:47
en technologen werken onvermoeibaar
00:02:49
om deze vervalsingen op te sporen en te bestrijden.
00:02:52
Ze ontwikkelen hulpmiddelen om te identificeren
00:02:55
deep fakes, die het publiek opleiden
00:02:57
over hoe je veelbetekenende tekens kunt herkennen,
00:02:59
en probeert te herstellen
00:03:00
vertrouwen in het tijdperk na de waarheid.
00:03:03
We staan op een kruispunt.
00:03:05
De technologie vordert en
00:03:06
we moeten ermee doorgaan,
00:03:09
altijd op de hoogte,
00:03:10
altijd waakzaam,
00:03:11
en altijd klaar om onderscheid te maken
00:03:14
waarheid uit fictie.

No elements match your search in this video....
Do another search or back to content !

 

00:00:04
Sztuczna inteligencja kształtuje nasze
00:00:05
Świat w sposób, jakiego nigdy nie mogliśmy sobie wyobrazić.
00:00:09
Generatywne AIS mają
00:00:10
Przekroczyła nasze oczekiwania.
00:00:12
Dzisiaj potrafią komponować melodie
00:00:14
podobnie jak w przypadku wielkich muzyków,
00:00:16
pisać artykuły w stylu
00:00:18
wybitnych dziennikarzy,
00:00:19
odtwarzaj głosy przywołujące nasze
00:00:20
ulubionych aktorów i piosenkarzy,
00:00:22
i generuj twarze i filmy
00:00:24
Wydaje się, że są realistyczne
00:00:25
Prosto z hollywoodzkiego filmu.
00:00:27
To, co kiedyś zostało zdegradowane do
00:00:29
Strony powieści science fiction są
00:00:31
Teraz ożywa na naszych oczach
00:00:33
poprzez aplikacje takie jak DeepMind,
00:00:35
GPT 4 lub Mid Journey.
00:00:38
Głębokie podróbki należą do najbardziej kontrowersyjnych
00:00:40
zastosowań tej technologii.
00:00:42
Wyobraź sobie wideo wpływowego
00:00:44
osobowość wygłaszająca wybuchowe stwierdzenie.
00:00:46
Tyle że to oświadczenie nigdy nie zostało złożone.
00:00:48
W świecie, w którym polegamy
00:00:50
o tym, co widzimy i słyszymy,
00:00:51
konsekwencje mogą być druzgocące.
00:00:53
Firmy są szczególnie narażone.
00:00:55
Pojedyncze zdokumentowane wideo może
00:00:57
wywołać kryzys finansowy,
00:00:59
zrujnować lata brandingu lub zasiać chaos
00:01:02
wśród akcjonariuszy i klientów.
00:01:04
Ale nie chodzi tylko o pieniądze.
00:01:05
Zaufanie, raz utracone, jest trudne do przywrócenia.
00:01:09
W połączonym świecie korporacyjnym,
00:01:11
dezinformacja może szybko stać się wirusowa,
00:01:13
Dotyczy to nie tylko jednej firmy,
00:01:15
Ale cały przemysł.
00:01:17
Jeden z najbardziej uderzających przykładów
00:01:19
które mogą zilustrować podatność
00:01:21
Firmy do dezinformacji
00:01:23
Przypadek Tesli w 2018 roku.
00:01:26
W sierpniu 2018 roku Elon Musk
00:01:28
Dyrektor generalny Tesli, napisał na Twitterze, że jest
00:01:31
rozważanie zabrania Tesli prywatnie
00:01:32
i że miał zabezpieczone fundusze.
00:01:35
To stwierdzenie doprowadziło do gwałtownego wzrostu
00:01:37
Cena akcji Tesli ponad 10%.
00:01:39
Później jednak okazało się, że
00:01:41
Musk nie miał konkretnego planu
00:01:43
lub zabezpieczenie finansowania takiego posunięcia.
00:01:45
SEC Papierów Wartościowych i Giełdy
00:01:47
Komisja pozwała Muska
00:01:49
dla wprowadzających w błąd inwestorów.
00:01:50
Chociaż nie jest to bezpośredni
00:01:53
przykład głębokiej podróbki lub
00:01:55
sztuczna inteligencja generowała dezinformację,
00:01:56
pokazuje, jak pojedyncze stwierdzenie,
00:01:58
czy to prawda czy fałsz,
00:02:00
może mieć poważne konsekwencje
00:02:01
o cenie akcji spółki,
00:02:03
reputacja i zaufanie inwestorów. Transponowanie
00:02:07
to dla A jest umiejętnością
00:02:08
Tworzenie fałszywych treści.
00:02:10
Można sobie wyobrazić potencjał
00:02:12
konsekwencje, jeśli na przykład przyjęte
00:02:14
Film przedstawiający dyrektor generalny dużej firmy był
00:02:17
opublikowano fałszywie ogłaszając przełomowe wiadomości.
00:02:19
Rynki finansowe mogą zareagować
00:02:21
Zanim jeszcze zweryfikujesz
00:02:23
autentyczność oświadczenia.
00:02:24
Na poziomie społecznym,
00:02:26
Konsekwencje są jeszcze większe.
00:02:28
Wybory można sfałszować.
00:02:29
Napięcia mogą się zaostrzyć.
00:02:31
Rodziny można podzielić
00:02:33
przez sprzeczne prawdy.
00:02:35
Kiedy informacje stają się
00:02:37
nie do odróżnienia od dezinformacji,
00:02:38
Sama struktura naszego
00:02:40
Demokracja jest wystawiona na próbę.
00:02:42
Ale to nie wszystko jest zagładą i mrokiem.
00:02:44
Istnieją środki zaradcze.
00:02:45
Dziennikarze, badacze,
00:02:47
a technolodzy pracują niestrudzenie
00:02:49
wykrywania i zwalczania tych fałszerstw.
00:02:52
Opracowują narzędzia do identyfikacji
00:02:55
głębokie podróbki, edukujące opinię publiczną
00:02:57
jak rozpoznać znaki ostrzegawcze,
00:02:59
i próbując przywrócić
00:03:00
Zaufaj epoce post-prawdy.
00:03:03
Jesteśmy na rozdrożu.
00:03:05
Technologia rozwija się i
00:03:06
Musimy z tym iść naprzód,
00:03:09
zawsze informowany,
00:03:10
Zawsze czujny,
00:03:11
i zawsze gotowy do rozpoznania
00:03:14
Prawda z fikcji.

No elements match your search in this video....
Do another search or back to content !

 

00:00:04
A mesterséges intelligencia formálja a mi
00:00:05
A világ olyan módon, amit soha nem tudtunk volna elképzelni.
00:00:09
A generatív AIS rendelkezik
00:00:10
meghaladta elvárásainkat.
00:00:12
Ma dallamokat tudnak komponálni
00:00:14
hasonlóan a nagy zenészekéhez,
00:00:16
írjon cikkeket a stílusban
00:00:18
neves újságírók,
00:00:19
reprodukálja a minket idéző hangokat
00:00:20
kedvenc színészek és énekesek,
00:00:22
és arcokat és videókat generál így
00:00:24
Reálisnak tűnnek, mintha lennének
00:00:25
Egyenesen egy hollywoodi filmből.
00:00:27
Amit egykor visszaszorították a
00:00:29
A sci-fi regények oldalai
00:00:31
most életre kelünk a szemünk előtt
00:00:33
olyan alkalmazásokon keresztül, mint a DeepMind,
00:00:35
GPT 4, vagy Mid Journey.
00:00:38
A mély hamisítványok a legvitatottabbak közé tartoznak
00:00:40
ennek a technológiának az alkalmazása.
00:00:42
Képzeljen el egy befolyásos videót
00:00:44
a személyiség robbanásszerű nyilatkozatot tesz.
00:00:46
Kivéve, hogy ezt a kijelentést soha nem tették meg.
00:00:48
Egy olyan világban, ahol támaszkodunk
00:00:50
azon, amit látunk és hallunk,
00:00:51
a következmények pusztítóak lehetnek.
00:00:53
Különösen kiszolgáltatottak a vállalkozások.
00:00:55
Egyetlen dokumentált videó képes
00:00:57
pénzügyi válságot válthat ki,
00:00:59
tönkreteszi a márkaépítés éveit, vagy káoszt vethet
00:01:02
a részvényesek és az ügyfelek körében.
00:01:04
De ez nem csak a pénzről szól.
00:01:05
A bizalmat, ha egyszer elveszett, nehéz visszaállítani.
00:01:09
Egy összekapcsolt vállalati világban,
00:01:11
a téves információk gyorsan vírusossá válhatnak,
00:01:13
nem csak egy vállalatot érint,
00:01:15
De egy egész iparág.
00:01:17
Az egyik legszembetűnőbb példa
00:01:19
Ez szemlélteti a sebezhetőséget
00:01:21
A vállalkozások félretájékoztatása
00:01:23
A Tesla esete 2018-ban.
00:01:26
2018 augusztusában Elon Musk,
00:01:28
A Tesla vezérigazgatója tweetelt, hogy ő
00:01:31
fontolóra veszi a Tesla magántulajdonát
00:01:32
és hogy finanszírozása biztosított.
00:01:35
Ez az állítás növekedéshez vezetett
00:01:37
A Tesla részvényárfolyama meghaladja a 10% -ot.
00:01:39
Később azonban kiderült, hogy
00:01:41
Musknak nem volt konkrét terve
00:01:43
vagy biztosított finanszírozást egy ilyen lépésre.
00:01:45
A SEC értékpapírok és tőzsde
00:01:47
A Bizottság ezután beperelte Muskot
00:01:49
megtévesztő befektetők számára.
00:01:50
Bár ez nem közvetlen
00:01:53
példa egy mély hamisítványra vagy
00:01:55
Az AI félretájékoztatást generált,
00:01:56
megmutatja, hogy egy állítás,
00:01:58
igaz vagy hamis,
00:02:00
komoly következményekkel járhat
00:02:01
a társaság részvényárfolyamán,
00:02:03
Hírnév és befektetői bizalom. Átültetés
00:02:07
Ez az A-nak képesség
00:02:08
hamis tartalom létrehozása.
00:02:10
El lehet képzelni a potenciált
00:02:12
következmények, ha például elfogadják
00:02:14
videó egy nagyvállalat vezérigazgatójáról
00:02:17
hamisan közzétett zavaró híreket.
00:02:19
A pénzügyi piacok reagálhatnak
00:02:21
mielőtt még ellenőrizni is a
00:02:23
a nyilatkozat hitelessége.
00:02:24
Társadalmi szinten,
00:02:26
a következmények még nagyobbak.
00:02:28
A választások hamisíthatók.
00:02:29
A feszültség súlyosbodhat.
00:02:31
A családok megoszthatók
00:02:33
ellentmondásos igazságokkal.
00:02:35
Amikor az információ válik
00:02:37
megkülönböztethetetlen a téves információktól,
00:02:38
A mi szerkezetünk
00:02:40
A demokráciát próbára teszik.
00:02:42
De ez nem minden végzet és sötétség.
00:02:44
Vannak ellenintézkedések.
00:02:45
Újságírók, kutatók,
00:02:47
és a technológusok fáradhatatlanul dolgoznak
00:02:49
ezeknek a hamisításoknak a felderítésére és leküzdésére.
00:02:52
Eszközöket fejlesztenek az azonosításhoz
00:02:55
mély hamisítványok, a nyilvánosság oktatása
00:02:57
a jelzőjelek észlelésének módjáról,
00:02:59
és megpróbálja visszaállítani
00:03:00
Bízzunk az igazság utáni korszakban.
00:03:03
Kereszteződésben vagyunk.
00:03:05
A technológia fejlődik és
00:03:06
továbblépnünk kell vele,
00:03:09
Mindig tájékozott,
00:03:10
Mindig éber,
00:03:11
és mindig készen áll a felismerésre
00:03:14
Igazság a fikcióból.

No elements match your search in this video....
Do another search or back to content !

 

Mandarine AI: WHAT YOU SHOULD KNOW

Reminder

Show