{"id":1513,"date":"2022-04-07T18:50:00","date_gmt":"2022-04-07T18:50:00","guid":{"rendered":"http:\/\/alexsanderluizqueirozsilva.com.br\/?p=1513"},"modified":"2022-04-16T18:53:21","modified_gmt":"2022-04-16T18:53:21","slug":"a-evolucao-do-deepfake-futuro-da-criacao-de-conteudo","status":"publish","type":"post","link":"https:\/\/alexsanderluizqueirozsilva.com.br\/index.php\/a-evolucao-do-deepfake-futuro-da-criacao-de-conteudo\/","title":{"rendered":"A evolu\u00e7\u00e3o do deepfake, futuro da cria\u00e7\u00e3o de conte\u00fado"},"content":{"rendered":"\n<p>07\/04\/2022<\/p>\n\n\n\n<p><strong>H\u00e1 cerca de um ano, milh\u00f5es de telespectadores em toda a Coreia do Sul estavam assistindo ao canal MBN para acompanhar as \u00faltimas not\u00edcias.<\/strong><\/p>\n\n\n\n<p>No hor\u00e1rio nobre, a apresentadora habitual do jornal, Kim Joo-Ha, come\u00e7ou a ler as manchetes do dia. Era uma lista relativamente normal de hist\u00f3rias para o fim de 2020 \u2014 repleta de atualiza\u00e7\u00f5es sobre a pandemia de covid-19.<\/p>\n\n\n\n<p>No entanto, este boletim estava longe de ser normal, j\u00e1 que Kim Joo-Ha n\u00e3o estava realmente na tela.<\/p>\n\n\n\n<p>Ela havia sido substitu\u00edda por uma vers\u00e3o\u00a0<em>deepfake<\/em>\u00a0de si mesma \u2014 uma c\u00f3pia gerada por computador que busca refletir perfeitamente sua voz, gestos e express\u00f5es faciais.<\/p>\n\n\n\n<p>Os espectadores foram informados de antem\u00e3o de que isso iria acontecer, e de acordo com a imprensa sul-coreana, a rea\u00e7\u00e3o do p\u00fablico foi variada.<\/p>\n\n\n\n<p>Enquanto algumas pessoas ficaram surpresas com o qu\u00e3o realista era, outras disseram que estavam preocupadas que a verdadeira Kim Joo-Ha pudesse perder o emprego.<\/p>\n\n\n\n<p>A MBN afirmou que continuaria a usar&nbsp;<em>deepfake<\/em>&nbsp;para algumas not\u00edcias de \u00faltima hora, enquanto a empresa por tr\u00e1s da tecnologia de intelig\u00eancia artificial \u2014 a sul-coreana Moneybrain \u2014 anunciou que estaria procurando outros compradores na China e nos EUA.<\/p>\n\n\n\n<p>Quando a maioria das pessoas pensa em&nbsp;<em>deepfakes<\/em>, elas imaginam v\u00eddeos falsos de celebridades.<\/p>\n\n\n\n<p>De fato, pouco tempo depois deste\u00a0<em>deepfake<\/em>\u00a0sul-coreano, um v\u00eddeo falso \u2014 mas muito realista \u2014 do ator Tom Cruise foi destaque no notici\u00e1rio no mundo todo quando apareceu no TikTok.<\/p>\n\n\n\n<p>Apesar das conota\u00e7\u00f5es negativas em torno do termo coloquial&nbsp;<em>deepfake<\/em>&nbsp;(as pessoas geralmente n\u00e3o querem ser associadas \u00e0 palavra &#8220;<em>fake<\/em>&#8220;), a tecnologia est\u00e1 sendo cada vez mais usada comercialmente.<\/p>\n\n\n\n<p>Mais diplomaticamente chamados de v\u00eddeos gerados por intelig\u00eancia artificial, ou m\u00eddia sint\u00e9tica, seu uso est\u00e1 crescendo rapidamente em algumas \u00e1reas, como de not\u00edcias, entretenimento e educa\u00e7\u00e3o \u2014 e a tecnologia se tornando cada vez mais sofisticada.<\/p>\n\n\n\n<p>Um dos primeiros adeptos foi a Synthesia, companhia com sede em Londres que cria v\u00eddeos de treinamento corporativo com intelig\u00eancia artificial para empresas, como o grupo de publicidade global WPP e a consultoria de neg\u00f3cios Accenture.<\/p>\n\n\n\n<p>&#8220;Este \u00e9 o futuro da cria\u00e7\u00e3o de conte\u00fado&#8221;, diz o executivo-chefe e cofundador da Synthesia, Victor Riparbelli.<\/p>\n\n\n\n<p>Para fazer um v\u00eddeo gerado por intelig\u00eancia artificial usando o sistema da Synthesia, voc\u00ea simplesmente escolhe entre v\u00e1rios avatares, digita a palavra que deseja que eles digam e pronto.<\/p>\n\n\n\n<p>Riparbelli diz que isso significa que as empresas globais podem facilmente fazer v\u00eddeos em diferentes idiomas \u2014 para cursos de treinamento internos, por exemplo.<\/p>\n\n\n\n<p>&#8220;Digamos que voc\u00ea tenha 3 mil trabalhadores de armaz\u00e9m na Am\u00e9rica do Norte&#8221;, diz ele. &#8220;Alguns falam ingl\u00eas, mas alguns podem estar mais familiarizados com o espanhol.&#8221;<\/p>\n\n\n\n<p>&#8220;Se voc\u00ea precisa comunicar informa\u00e7\u00f5es complexas a eles, um PDF de quatro p\u00e1ginas n\u00e3o \u00e9 uma boa maneira. Seria muito melhor fazer um v\u00eddeo de dois ou tr\u00eas minutos, em ingl\u00eas e espanhol.&#8221;<\/p>\n\n\n\n<p>&#8220;Se voc\u00ea tivesse que gravar cada um destes v\u00eddeos, seria um trabalho enorme. Agora podemos fazer isso com um [pequeno] custo de produ\u00e7\u00e3o e o tempo que algu\u00e9m levar para escrever o roteiro. Isso exemplifica muito bem como a tecnologia \u00e9 usada hoje.&#8221;<\/p>\n\n\n\n<p>Mike Price, diretor de tecnologia da ZeroFox, empresa de seguran\u00e7a cibern\u00e9tica dos EUA que rastreia&nbsp;<em>deepfakes<\/em>, afirma que seu uso comercial est\u00e1 &#8220;crescendo significativamente ano ap\u00f3s ano, mas os n\u00fameros exatos s\u00e3o dif\u00edceis de cravar&#8221;.<\/p>\n\n\n\n<p>Chad Steelberg, executivo-chefe da Veritone, fornecedora americana de tecnologia de intelig\u00eancia artificial, observa, no entanto, que a crescente preocupa\u00e7\u00e3o com&nbsp;<em>deepfakes&nbsp;<\/em>mal-intencionados est\u00e1 impedindo o investimento no uso comercial leg\u00edtimo da tecnologia.<\/p>\n\n\n\n<p>&#8220;O termo&nbsp;<em>deepfake&nbsp;<\/em>definitivamente teve uma resposta negativa em termos de investimento de capital no setor&#8221;, afirma. &#8220;A m\u00eddia e os consumidores, com raz\u00e3o, podem ver claramente os riscos associados.&#8221;<\/p>\n\n\n\n<p>&#8220;Isso definitivamente impediu as corpora\u00e7\u00f5es e os investidores de investir na tecnologia. Mas acho que se come\u00e7a a ver essa abertura.&#8221;<\/p>\n\n\n\n<figure class=\"wp-block-image\"><img src=\"https:\/\/ichef.bbci.co.uk\/news\/640\/cpsprodpb\/1226D\/production\/_105894347_grey_line-nc.png\" alt=\"Presentational grey line\" \/><\/figure>\n\n\n\n<p>Mike Papas, executivo-chefe da Modulate, empresa de intelig\u00eancia artificial que permite aos usu\u00e1rios criar a voz de um personagem ou pessoa diferente, diz que as empresas do setor comercial de m\u00eddia sint\u00e9tica &#8220;realmente se preocupam com a \u00e9tica&#8221;.<\/p>\n\n\n\n<p>&#8220;\u00c9 incr\u00edvel ver a profundidade de pensamento que colocam nisso&#8221;, afirma.<\/p>\n\n\n\n<p>&#8220;Isso garantiu que os investidores tamb\u00e9m se preocupassem com isso. Eles est\u00e3o perguntando sobre pol\u00edticas \u00e9ticas e como voc\u00ea v\u00ea isso.&#8221;<\/p>\n\n\n\n<p>Lilian Edwards, professora de direito, inova\u00e7\u00e3o e sociedade da Universidade de Newcastle, no Reino Unido, \u00e9 especialista em&nbsp;<em>deepfakes<\/em>. E, segundo ela, uma quest\u00e3o em torno do uso comercial da tecnologia que n\u00e3o foi totalmente abordada \u00e9 quem det\u00e9m os direitos dos v\u00eddeos.<\/p>\n\n\n\n<p>&#8220;Por exemplo, se uma pessoa morta \u00e9 usada, como [o ator] Steve McQueen ou [o rapper] Tupac, h\u00e1 um debate em andamento sobre se a fam\u00edlia deles deve possuir os direitos [e obter renda com isso]&#8221;, explica.<\/p>\n\n\n\n<p>&#8220;Atualmente, isso difere de pa\u00eds para pa\u00eds.&#8221;<\/p>\n\n\n\n<p>Deborah Johnson, professora de \u00e9tica aplicada na Universidade da Virg\u00ednia, nos EUA, foi coautora recentemente de um artigo intitulado&nbsp;<em>What To Do About Deepfakes?<\/em>&nbsp;(&#8220;O que fazer com os&nbsp;<em>deepfakes<\/em>?&#8221;, em tradu\u00e7\u00e3o literal).<\/p>\n\n\n\n<p>&#8220;<em>Deepfakes&nbsp;<\/em>s\u00e3o parte do problema maior de desinforma\u00e7\u00e3o que mina a confian\u00e7a nas institui\u00e7\u00f5es e na experi\u00eancia visual \u2014 n\u00e3o podemos mais confiar no que vemos e ouvimos online&#8221;, diz ela.<\/p>\n\n\n\n<p>&#8220;A identifica\u00e7\u00e3o \u00e9 provavelmente a forma mais simples e importante de combater os&nbsp;<em>deepfakes<\/em>&nbsp;\u2014 se os espectadores estiverem cientes de que o que est\u00e3o vendo foi fabricado, \u00e9 menos prov\u00e1vel que sejam enganados&#8221;.<\/p>\n\n\n\n<p>A professora Sandra Wachter, pesquisadora de intelig\u00eancia artificial da Universidade de Oxford, no Reino Unido, afirma que a tecnologia\u00a0<em>deepfake<\/em>\u00a0&#8220;est\u00e1 avan\u00e7ando rapidamente&#8221;.<\/p>\n\n\n\n<p>&#8220;Se voc\u00ea assistiu ao v\u00eddeo de Tom Cruise, pode ver como a tecnologia est\u00e1 ficando boa&#8221;, diz ela.<\/p>\n\n\n\n<p>&#8220;Foi muito mais realista do que o do presidente Obama de quatro anos atr\u00e1s.&#8221;<\/p>\n\n\n\n<p>&#8220;N\u00e3o devemos ter muito medo da tecnologia, e \u00e9 preciso haver abordagens diferenciadas para isso. Sim, deve haver leis para reprimir coisas nocivas e perigosas, como discurso de \u00f3dio e pornografia de vingan\u00e7a. Os indiv\u00edduos e a sociedade devem ser protegidos disso.&#8221;<\/p>\n\n\n\n<p>&#8220;Mas n\u00e3o devemos ter uma proibi\u00e7\u00e3o total dos&nbsp;<em>deepfakes&nbsp;<\/em>por s\u00e1tira ou liberdade de express\u00e3o. E o crescente uso comercial da tecnologia \u00e9 muito promissor, como passar filmes para diferentes idiomas ou criar v\u00eddeos educativos envolventes&#8221;.<\/p>\n\n\n\n<p>Um exemplo do uso educacional de v\u00eddeos gerados por intelig\u00eancia artificial est\u00e1 na Funda\u00e7\u00e3o Shoah, da Universidade do Sul da Calif\u00f3rnia, nos EUA, que abriga mais de 55 mil testemunhos em v\u00eddeo de sobreviventes do Holocausto.<\/p>\n\n\n\n<p>Seu projeto&nbsp;<em>Dimensions In Testimony<\/em>&nbsp;permite que os visitantes fa\u00e7am perguntas que levem a respostas em tempo real dos sobreviventes nas entrevistas em v\u00eddeo pr\u00e9-gravadas.<\/p>\n\n\n\n<p>Steelberg acredita que, no futuro, esta tecnologia permitir\u00e1 que os netos conversem com vers\u00f5es de intelig\u00eancia artificial de av\u00f3s falecidos.<\/p>\n\n\n\n<p>&#8220;Isso \u00e9 transformador, eu acho, para a forma como pensamos nossa sociedade.&#8221;<\/p>\n\n\n\n<p>BY ALEXSANDER QUEIROZ SILVA<br>Fonte: Valor Investe<\/p>\n","protected":false},"excerpt":{"rendered":"<p>07\/04\/2022 H\u00e1 cerca de um ano, milh\u00f5es de telespectadores em toda a Coreia do Sul estavam assistindo ao canal MBN para acompanhar as \u00faltimas not\u00edcias. No hor\u00e1rio nobre, a apresentadora habitual do jornal, Kim Joo-Ha, come\u00e7ou a ler as manchetes do dia. Era uma lista relativamente normal de hist\u00f3rias para o fim de 2020 \u2014 [&#8230;]\n","protected":false},"author":1,"featured_media":1515,"comment_status":"closed","ping_status":"open","sticky":false,"template":"","format":"standard","meta":[],"categories":[23],"tags":[],"_links":{"self":[{"href":"https:\/\/alexsanderluizqueirozsilva.com.br\/index.php\/wp-json\/wp\/v2\/posts\/1513"}],"collection":[{"href":"https:\/\/alexsanderluizqueirozsilva.com.br\/index.php\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/alexsanderluizqueirozsilva.com.br\/index.php\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/alexsanderluizqueirozsilva.com.br\/index.php\/wp-json\/wp\/v2\/users\/1"}],"replies":[{"embeddable":true,"href":"https:\/\/alexsanderluizqueirozsilva.com.br\/index.php\/wp-json\/wp\/v2\/comments?post=1513"}],"version-history":[{"count":1,"href":"https:\/\/alexsanderluizqueirozsilva.com.br\/index.php\/wp-json\/wp\/v2\/posts\/1513\/revisions"}],"predecessor-version":[{"id":1514,"href":"https:\/\/alexsanderluizqueirozsilva.com.br\/index.php\/wp-json\/wp\/v2\/posts\/1513\/revisions\/1514"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/alexsanderluizqueirozsilva.com.br\/index.php\/wp-json\/wp\/v2\/media\/1515"}],"wp:attachment":[{"href":"https:\/\/alexsanderluizqueirozsilva.com.br\/index.php\/wp-json\/wp\/v2\/media?parent=1513"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/alexsanderluizqueirozsilva.com.br\/index.php\/wp-json\/wp\/v2\/categories?post=1513"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/alexsanderluizqueirozsilva.com.br\/index.php\/wp-json\/wp\/v2\/tags?post=1513"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}