<?xml version="1.0" encoding="UTF-8"?><rss version="2.0"
	xmlns:content="http://purl.org/rss/1.0/modules/content/"
	xmlns:wfw="http://wellformedweb.org/CommentAPI/"
	xmlns:dc="http://purl.org/dc/elements/1.1/"
	xmlns:atom="http://www.w3.org/2005/Atom"
	xmlns:sy="http://purl.org/rss/1.0/modules/syndication/"
	xmlns:slash="http://purl.org/rss/1.0/modules/slash/"
	>

<channel>
	<title>Archives des modèles de diffusion AI - Blois Capitale Agglopolys</title>
	<atom:link href="https://bloiscapitale.com/tag/modeles-de-diffusion-ai/feed" rel="self" type="application/rss+xml" />
	<link>https://bloiscapitale.com/tag/modeles-de-diffusion-ai</link>
	<description>Le Webmag de Blois</description>
	<lastBuildDate>Tue, 30 Apr 2024 12:33:25 +0000</lastBuildDate>
	<language>fr-FR</language>
	<sy:updatePeriod>
	hourly	</sy:updatePeriod>
	<sy:updateFrequency>
	1	</sy:updateFrequency>
	<generator>https://wordpress.org/?v=6.7.1</generator>

<image>
	<url>https://bloiscapitale.com/wp-content/uploads/2022/12/cropped-LOGO-BC-512-32x32.png</url>
	<title>Archives des modèles de diffusion AI - Blois Capitale Agglopolys</title>
	<link>https://bloiscapitale.com/tag/modeles-de-diffusion-ai</link>
	<width>32</width>
	<height>32</height>
</image> 
	<item>
		<title>Génération de vidéos par IA : découvrir Sora et Vidu</title>
		<link>https://bloiscapitale.com/generation-de-videos-par-ia-decouvrir-sora-et-vidu</link>
					<comments>https://bloiscapitale.com/generation-de-videos-par-ia-decouvrir-sora-et-vidu#respond</comments>
		
		<dc:creator><![CDATA[Blois Capitale]]></dc:creator>
		<pubDate>Tue, 30 Apr 2024 12:31:36 +0000</pubDate>
				<category><![CDATA[1.2.3... Les informations]]></category>
		<category><![CDATA[Découvrir]]></category>
		<category><![CDATA[techno]]></category>
		<category><![CDATA[actualités]]></category>
		<category><![CDATA[architecture de transformateur]]></category>
		<category><![CDATA[contenu vidéo éducatif]]></category>
		<category><![CDATA[création de contenu automatique]]></category>
		<category><![CDATA[deepfake et éthique]]></category>
		<category><![CDATA[deepfakes photoréalistes]]></category>
		<category><![CDATA[génération de vidéos]]></category>
		<category><![CDATA[Génération de vidéos IA]]></category>
		<category><![CDATA[innovation technologique en IA]]></category>
		<category><![CDATA[intelligence artificielle]]></category>
		<category><![CDATA[modèles de diffusion AI]]></category>
		<category><![CDATA[OpenAI]]></category>
		<category><![CDATA[OpenAI Sora]]></category>
		<category><![CDATA[prompt efficace]]></category>
		<category><![CDATA[réalisme vidéo IA]]></category>
		<category><![CDATA[sécurité IA]]></category>
		<category><![CDATA[Shengshu Technology]]></category>
		<category><![CDATA[Sora]]></category>
		<category><![CDATA[transformation de texte en vidéo]]></category>
		<category><![CDATA[Vidu]]></category>
		<category><![CDATA[Vidu Shengshu Technology]]></category>
		<guid isPermaLink="false">https://bloiscapitale.com/?p=15226</guid>

					<description><![CDATA[<p>Dans le paysage en évolution rapide de l&#8217;intelligence artificielle, la génération de vidéos à partir de textes se distingue comme une frontière technologique bientôt dépassée. Deux modèles notables dans ce domaine sont Sora d&#8217;OpenAI et Vidu, développé par Shengshu Technology en collaboration avec l&#8217;Université de Tsinghua. OpenAI Sora Sora est capable de créer des vidéos &#8230;</p>
<p>L’article <a href="https://bloiscapitale.com/generation-de-videos-par-ia-decouvrir-sora-et-vidu">Génération de vidéos par IA : découvrir Sora et Vidu</a> est apparu en premier sur <a href="https://bloiscapitale.com">Blois Capitale Agglopolys</a>.</p>
]]></description>
										<content:encoded><![CDATA[
<p>Dans le paysage en évolution rapide de l&rsquo;<strong><a href="https://bloiscapitale.com/des-recommandations-pour-tirer-parti-de-l-intelligence-artificielle" target="_blank" rel="noreferrer noopener">intelligence artificielle</a></strong>, la <strong>génération de vidéos</strong> à partir de textes se distingue comme une frontière technologique bientôt dépassée. Deux modèles notables dans ce domaine sont <strong>Sora</strong> d&rsquo;<em><a href="https://openai.com/" target="_blank" rel="noreferrer noopener">OpenAI</a></em> et <strong>Vidu</strong>, développé par <em>Shengshu Technology</em> en collaboration avec l&rsquo;Université de Tsinghua.</p>



<h3 class="wp-block-heading" id="h-openai-sora">OpenAI Sora</h3>



<p>Sora est <strong>capable de créer des vidéos de haute fidélité jusqu&rsquo;à une minute</strong> à partir de simples descriptions textuelles. Cet outil d&rsquo;OpenAI est dit destiné à des applications allant <strong>de l&rsquo;éducation à l&rsquo;entrepreneuriat créatif</strong>. Il intègre des techniques avancées pour améliorer la composition des vidéos et permet des personnalisations flexibles selon les ratios et les résolutions souhaitées, tout en bénéficiant de la capacité d&rsquo;étendre les vidéos de manière créative.</p>



<p><strong>Sora n&rsquo;est pas encore disponible pour le grand public.</strong> OpenAI a opté pour une approche prudente, partageant le modèle avec des testeurs de sécurité tiers et des créateurs de contenu pour peaufiner l&rsquo;outil et <strong>minimiser les risques d&rsquo;abus potentiels</strong>, tels que la création de <strong>deepfakes photoréalistes</strong>.</p>



<h3 class="wp-block-heading" id="h-vidu">Vidu</h3>



<p>D&rsquo;autre part, Vidu se distingue par sa capacité à intégrer des <strong>éléments culturels chinois</strong> dans ses productions, offrant ainsi une résonance plus profonde avec les utilisateurs locaux. Utilisant une architecture U-ViT qui combine des modèles de diffusion et des transformateurs, Vidu produit des <strong>contenus visuels réalistes et dynamiques</strong>, marquant une avancée notable pour la technologie chinoise dans le domaine de l&rsquo;IA.</p>



<h3 class="wp-block-heading" id="h-perspectives-et-defis">Perspectives et défis</h3>



<p>Tandis que ces technologies offrent des possibilités étendues pour la narration, elles présentent également des défis significatifs. <strong>Les questions de sécurité, d&rsquo;éthique, et de gestion des droits d&rsquo;auteur sont au cœur des préoccupations,</strong> surtout avec la capacité de ces modèles à produire <strong>des contenus qui semblent de plus en plus réels.</strong></p>



<h2 class="wp-block-heading" id="h-creer-un-prompt-efficace">Créer un prompt efficace</h2>



<p><strong>Les prompts doivent être aussi détaillés que possible</strong>. Cela doit inclure des descriptions spécifiques des personnages, des actions, des environnements, et des objets. Par exemple, au lieu de dire simplement <em>« un chien dans un parc »</em>, il faut préciser <em>« un golden retriever courant joyeusement à travers un parc ensoleillé avec des enfants jouant en arrière-plan ».</em> Il faut ajouter des informations sur l&rsquo;ambiance ou le ton de la scène pour aider le modèle à capturer l&rsquo;atmosphère souhaitée. Par exemple, <em>« une rue animée de Tokyo la nuit, éclairée par des néons multicolores et remplie de passants portant des parapluies lumineux ».</em></p>



<h3 class="wp-block-heading" id="h-instructions">Instructions</h3>



<p><strong>Décrire les mouvements de caméra peut enrichir la dynamique de la vidéo. </strong>Utiliser des termes comme <em>« la caméra suit »</em>, <em>« zoom sur »</em>, ou <em>« vue aérienne de »</em> est utile pour spécifier comment la scène doit être visualisée. Par exemple, <em>« la caméra suit un cycliste traversant un pont au coucher du soleil »</em>. Autre point, <strong>mentionner les interactions entre les personnages ou les changements dans l&rsquo;environnement</strong>. Cela peut inclure des dialogues, des interactions physiques, ou des événements météorologiques. Par exemple, <em>« un homme et une femme discutant à une table de café en plein air alors qu&rsquo;il commence à pleuvoir doucement ».</em> <strong>Si cela a sa pertinence, il faut indiquer le moment de la journée ou la durée pendant laquelle les événements se déroulent.</strong> Cela aide à ajuster l&rsquo;éclairage et l&rsquo;atmosphère générale de la vidéo. Par exemple, <em>« une scène de marché matinal, avec des vendeurs préparant leurs étals à l&rsquo;aube ».</em></p>



<p><strong>Pour les scènes impliquant des personnages, il faudra décrire les émotions ou les expressions faciales</strong> pour que le modèle puisse générer des réactions réalistes. Par exemple, <em>« un petit garçon ouvre un cadeau, son visage s&rsquo;illumine de surprise et de joie ».</em></p>



<p>En suivant ces directives, chacun.e pourra formuler des prompts qui sont non seulement clairs et descriptifs mais aussi inspirants pour le modèle d&rsquo;IA, permettant la création de vidéos qui sont visuellement riches.</p>
<p>L’article <a href="https://bloiscapitale.com/generation-de-videos-par-ia-decouvrir-sora-et-vidu">Génération de vidéos par IA : découvrir Sora et Vidu</a> est apparu en premier sur <a href="https://bloiscapitale.com">Blois Capitale Agglopolys</a>.</p>
]]></content:encoded>
					
					<wfw:commentRss>https://bloiscapitale.com/generation-de-videos-par-ia-decouvrir-sora-et-vidu/feed</wfw:commentRss>
			<slash:comments>0</slash:comments>
		
		
			</item>
	</channel>
</rss>
