diff -r d824146a9589 -r 0a2505c3b547 web/traduction.php --- a/web/traduction.php Sun Mar 04 14:13:39 2012 +0100 +++ b/web/traduction.php Mon Mar 05 18:41:11 2012 +0100 @@ -70,6 +70,7 @@ "Déconnexion"=> "Déconnexion", // ABOUT ############# + "AboutPT" => "À propos de Polemic Tweet", "1. AboutTitle" => "Polemic Tweet : un dispositif tirant parti des dynamiques sociales", "1. AboutText" => "
Le Web devient de plus en plus audiovisuel, dans ce contexte comment rendre visibles ces contenus avec des métadonnées synchronisées au flux ? Comment faire pointer les moteurs de recherche sur des segments précis et non sur la vidéo complète ? Comment partager des moments favoris sur les réseaux sociaux ? Tout ceci repose en partie sur l’évolution des standards du Web mais avant tout sur la capacité à indexer les contenus audiovisuels dans le flux.
Pour cela, aujourd’hui, trois méthodes existent et peuvent cohabiter :
@@ -134,10 +135,10 @@
Cette syntaxe polémique vous a premis de prendre position relativement à l’intervenant ou aux autres participants au débat :
| ++ | correspond à un tweet d’assentiment | -
| -- | à un tweet de désaccord, | -
| == | à un tweet de référence | -
| ?? | à une question | +
| ++ | correspond à un tweet d’assentiment | +
| -- | à un tweet de désaccord, | +
| == | à un tweet de référence | +
| ?? | à une question |
The Web becomes largely audiovisual, in this context how to expose these contents with metadata synchronized to the AV stream? How to bring search engines results onto precise AV segments instead on a global audio or video program? How to share time-based favorites on social networks? This rely partly on the evolution of web standards (HTML5, W3C media fragments, …) but above all on our capacity to index and annotate audiovisual content in the streams. Today, three methods can be implemented alone or in combination: @@ -270,13 +272,13 @@ speaker or other participants points of view in the debate:
+ |
++ | corresponds to a tweet of assent |
-
+ |
-- | to a tweet of disagreement |
-
+ |
== | to a tweet of reference |
-
+ |
?? | to a question |
|
ウェブは、よりオーディオビジュアルな方向へと、日々発展しています。そうした状況の中で、AVストリーミングおよびそれとシンクロしたメタデータを含むようなコンテンツは、どのように表現されるべきなのでしょうか? サーチエンジンの検索結果を、動画や音声プログラムの全体ではなく、ある特定のセグメントとマッチさせるには、どうしたら良いのでしょうか? 時間性を持った情報への「お気に入り」は、ソーシャル・ネットワーク上でどうやって共有すれば良いのでしょうか? 次世代のウェブ標準(HTML5やW3Cのmedia fragments)は、部分的には、こうした要求に応えてくれるでしょう。しかしそれらは、ストリーミング上のAVコンテンツに対してインデキシングやアノテーションをおこなうために必要な機能を、全て満たしてくれものではありません。 現在のところ、AVへのインデキシングやアノテーションは、以下の3つのアプローチに大別できます: @@ -413,13 +416,13 @@ 以下の「ポレミック符号」をツイートに加えることで、登壇者の発表や、他の観客のつぶやきへのあなたの意見を表明することができます。
+ |
++ | 賛成する |
-
+ |
-- | 反論する |
-
+ |
== | 参照を挙げる |
-
+ |
?? | 疑問/質問をする |
|