1. "Le web : entre stratégies prédictives et
technologies injonctives."
Le pitch : souligner la part croissante que prennent certains
biotopes informationnels, au travers des stratégies
algorithmiques déployées, dans la guidance (doux
euphémisme) des requêtes et l'adressage (au double sens
du terme) des besoins de notre cycle informationnel
connecté.
ERTZSCHEID Olivier. Université de Nantes.
9 Avril 2013.
http://www.affordance.info
2. Préambule : Prédiction partout.
• «La MIT Sloan Management Review a étudié 3000 entreprises, répartis dans 108 pays et 30 secteurs industriels différents (…). Avec le
volume d’informations considérables dont disposent les entreprises aujourd’hui, il est possible d’anticiper et de prévoir bien plus
qu’au lendemain. De nombreux acteurs l’ont compris : des banques (HSBC, UniCredit), mais aussi des sites marchands (Amazon, UGC,
Meetic, Walgreens dans la pharmacie), des éditeurs de contenu (Allociné), des grandes enseignes de la distribution (Procter &
Gamble, Unilever), des assureurs, des entreprises de téléphonie…
– http://www.journaldunet.com/ebusiness/expert/53529/l-analyse-predictive---nouveau-veau-d-or-de-l-ere-digitale.shtml
– http://sloanreview.mit.edu/reports/analytics-the-new-path-to-value/
• Moteurs de recherche « prédictifs » :
– https://www.recordedfuture.com/ (google et CIA dans investisseurs)
http://statosphere.fr/website/post/2011/09/14/recorded-futur-moteur-de-recherche-modele-predictif
• Police prédictive : http://www.internetactu.net/2011/09/19/la-police-predictive-lalgorithme-du-crime/
• Prédire l’article en décodant le présent :
– http://www.ledevoir.com/societe/science-et-technologie/331686/predire-l-avenir-en-decodant-le-present-numerique (100
millions d’articles de sources ouvertes)
– Microsoft : « Mining the web to predict future events »
http://research.microsoft.com/en-us/um/people/horvitz/future_news_wsdm.pdf Fouille de 22 ans d’articles de presse pour en
extraire des « patterns » pour faire tourner ces patterns sur de la documentation d’actualité et voir si mêmes causes produisent
les mêmes effets
4. Net Neutrality ou Web neutralisé ?
• Du point de vue des grandes firmes de l’accès, la question de la neutralité est d’abord celle de la
possibilité - que nous leur laissons ou qu’elles s’accordent - de neutraliser tout ou partie des
contenus du web. Elles en avaient la capacité* elles en ont désormais la nécessité** et le besoin
( « capitalisme linguistique » ***)
• Stratégies de « neutralisation » d’autant plus fortes que les firment en question sont fermées (ou
phagocytent externalités), et propriétaires du service ou ont une « délégation » totale sur les
contenus (YouTube)
• Cette neutralisation implique de maintenir chez les internautes une opacité maximale sur les
stratégies de guidance des requêtes (adressage) et de collecte des données (publicité) ainsi qu’un
contrôle optimal sur les interactions en ligne.
• Les exemples ne manquent pas …
* http://affordance.typepad.com/mon_weblog/2009/02/google-presque-fatal-error.html
** http://pro.clubic.com/legislation-loi-internet/telechargement-illegal/actualite-552002-google-censure-sites-pirates.html)
*** http://fkaplan.wordpress.com/tag/capitalisme-linguistique/
5. Dernier en date …
• http://www.numerama.com/magazine/25580-apple-pousse-izneo-a-censurer-1500-bandes-dessinees.html
• « la boutique contre le bazar » : http://affordance.typepad.com/mon_weblog/2010/05/la-boutique-contre-le-bazar.html
• « Last document on earth : l’industrie lourde de la dématérialisation » http://fr.slideshare.net/olivier/forum-mediasertzscheid
(diapos 15 à 30)
• Pose la question de l’édiction de normes sociales (Apple : 400 millions de CB, FB : 1 milliard d’individus)
8. 1998 : 1er indice
• Postule que Google « sait déjà », « a prédit » non pas ce que vous cherchiez, mais la réponse qui vous conviendra le mieux
• Prédiction inscrite :
– dans les gènes de l’algorithme (PageRank > graphe > modélisation des arêtes et nœuds les plus saillants)
– et de l’interface (bouton « feeling lucky »)
9. From « privacy » to « predictibility »
• Publicité + Marketing > Publicité contextuelle (« ads are content ») + Marketing
comportemental > Big data
• Résurgence trop tardive des problématiques de « Privacy » *
• Résultat : « Marketing Big Data et segmentation attitudinale (sic) » **
• « Opinion mining et sentiment analysis » *** de Boullier et Lohard (2012)
– passage de « web neutralité » à « web réalité » (au sens de télé réalité)
– le pulsionnel comme régime d’attention, le sentiment et l’opinion comme grille de lecture.
* http://www.pnas.org/content/early/2013/03/06/1218772110
** http://lecercle.lesechos.fr/entrepreneur/marketing-communication/221166693/marketing-big-data-nouveau-traitement-donnees-non-str
*** http://books.openedition.org/oep/204
10. Les 6 étapes de la neutralité
1. Neutralité initiale des tuyaux et des protocoles (TCP-IP)
2. Neutralité suivante des contenus (indexation et accès)
3. Neutralité croisée des tuyaux/protocoles ET DES contenus ET DES accès (paradigme Google / YouTube)
4. Collision (conflits d’intérêt de bande passante et de référencement)
5. Collusion (régies publicitaires dans les tuyaux sur les contenus) http://www.mozilla.org/en-US/collusion
6. Neutralisation nécessaire et réciproque
• des tuyaux vers les contenus : free AdGate
• des tuyaux vers les accès (free / youtube)
• des contenus vers les tuyaux : priorisation partenariale ou actionnariale : Orange / Deezer, FranceTélécom / Dailymotion, Google /
YouTube, etc.)
10
http://www.lesechos.fr/entreprises-secteurs/tech-medias/actu/0202480707577-google-investit-la-silicon-prairie-525638.php
12. Avant : Net – Web – Graph
Dimensionnalité « étagée » permettant des adressages distincts
GRAPH = Relations sociales
WEB = plateforme de contenus
NET = infrastructure
12
13. Maintenant : Net – Web - Graph
FacebookNet
Apple Store
GoogleNet
13
14. « l’internet des silos »
Google
Facebook
Apple
Amazon
Twitter
Google, Facebook, Apple, Amazon, etc sont SUR le web, ils utilisent
l’infrastructure du Net, mais quand nous sommes chez eux nous ne
sommes plus sur le web, nous n’utilisons plus l’infrastructure du
net mais la LEUR.
LEURS règles, LEUR règlement intérieur, LEUR système de paiement,
etc… 14
17. Recherche Universelle : le principe
• Témoigne d’une maturité dans les ingénieries de la prédiction, sans laquelle
17
toute « pertinence » (ou popularité) serait impossible à établir.
18. Motifs / Patterns
SHOPPING
HEALTH
(digital
(Diabetes)
cameras)
LOCAL
TRAVEL
(French
(United 875)
Restaurant)
18
19. La surabondance et la perte.
• Jouer sur 2 angoisses
• Roger Chartier : « Il y a ces deux éléments, qui me paraissent très liés l’un à l’autre. Ne rien perdre, ne rien laisser, une obsession
patrimoniale, une obsession pour la conservation et en même temps un effroi devant une prolifération incontrôlable, indomptable de
données, d’informations, de textes. Ces deux craintes de longue durée trouvent aujourd’hui sans doute une traduction originale. »
http://reseaux.blog.lemonde.fr/2013/03/24/legende-noire-monde-electronique/) .
• Accepter la prédiction ou les réponses avant les questions c’est :
– Déléguer et donc désinvestir le risque de la perte (de livres rares, de nos données personnelles, de nos photos)
– Accepter – paradoxalement - l’idée d’un renoncement à l’abondance (je ne suis pas capable de gérer ce « trop » de données,
d’informations, d’images, etc)
– Résultat : création de nouvelles corporations du filtre doublement légitimées par notre notre délégation et notre acception de ce
renoncement
20. La surabondance et la perte.
• Problème 1 : cette surabondance est très largement artificielle (spams, histoire des 1000 pages de résultats de google
qui ne sont pas plus de 10) et superficielle (web de surface VS « deep web »)
• Problème 2 : surabondance est la condition de création d’une situation de dépendance et d’addiction (FOMO).
• Problème 3 : elle permet aux mêmes de tarir le flux du jour au lendemain (Greader récemment), de supprimer
l’histoire (http://en.wikipedia.org/wiki/Google_News_Archive) pour renforcer leurs écosystèmes et/ou leurs
internalités.
21. Description > restitution > prescription > prédiction
Société des requêtes Société des réponses
• Annuaires
• le web « décrit »
• Moteurs
• le web « restitué »
• Aujourd’hui et demain
• Le web « prescrit »
• Aujourd’hui et demain
• Le web « prédit »
21
22. Descripteurs > Prescripteurs > Scripteurs > Proscrits
• Moteurs ??
• Descripteurs > Dé-scripteurs
• Lecteurs (lectures industrielles*)
• Prescripteurs > Pré-scripteurs
• Scripteurs :
– « Google aurait pris l'habitude, dans certains cas, de changer le contenu du lien qu'il propose, sans
prendre en compte le contenu de la balise TITLE de la page. Dans une ancienne vidéo, Matt Cutts
avait effectivement dit que "Google se réservait le droit de choisir un titre qui lui semblerait
meilleur. »**
• Vers un web proscrit ?
– « en août 2012, Google annonce une modification de l'algorithme de son moteur de recherche,
1 limite de
ère
visant principalement à faciliter le déclassement des sites qualifiés de pirates : une page signalée
neutralités comme contenant des éléments illégaux par un ayant-droit se retrouve ainsi, depuis, déclassée des
résultats du moteur. » ***
* http://alaingiffard.blogs.com/culture/2007/09/lectures-indust.html
** http://actu.abondance.com/2011/02/google-change-les-titres-de-pages-dans.html 22
*** http://pro.clubic.com/legislation-loi-internet/telechargement-illegal/actualite-552002-google-censure-sites-pirates.html
23. La souscription comme point de rupture ?
• TEMPS DE L’E(S)CRITURE
• Web décrit > Web prescrit
• POINT DE RUPTURE
• Web souscrit (RSS, sub-scribere, sous autorité*)
– « troisième âge de la navigation : après le browsing et le searching voici venu le temps du "subscribing". On ne
navigue plus, on ne recherche plus, on s'abonne, on "souscrit". (…) "souscrire", "sub-scribere", littéralement
"écrire en dessous", une écriture "sous autorité" : en agrégeant les discours écrits ou postés par d'autres, on
est, de facto, placé "sous" une "autorité" qui n'est plus notre. »
• TEMPS DE LA DICTION (retour à l’oralité – technologies vocales**)
• Web prédit. Prédiction est une « pré-diction »
Implique et nécessite une « dégradation »
des processus d’écriture eux-mêmes
* http://affordance.typepad.com/mon_weblog/2005/11/moebius_le_web_.html
** http://affordance.typepad.com/mon_weblog/2012/03/la-voix-du-web.html
24. Disparition de
l’écriture manuscrite ?
• http://quoi.info/actualite-education/2013/02/21/apprendre-a-ecrire-a-lecole-bientot-demode-1161153/
24
26. Les 5 moments de l’écriture en réseau.
http://affordance.typepad.com/mon_weblog/2011/02/les-5-moments-ecriture-web-reseau.html
• écriture "primaire" hypertexte
1
– activité centrale : le lien // dynamique est avant tout topologique
– régime est celui de l'autorité (nous en sommes, collectivement les auteurs).
27. Les 5 moments de l’écriture en réseau.
http://affordance.typepad.com/mon_weblog/2011/02/les-5-moments-ecriture-web-reseau.html
• écritures "secondaires" industrielles
–
–
issues des « lectures industrielles » // activité centrale est celle de l'indexation,
Dynamique algorithmique // Régime d'indexabilité : nous n'en sommes plus que les co-scripteurs. 2
28. Les 5 moments de l’écriture en réseau.
http://affordance.typepad.com/mon_weblog/2011/02/les-5-moments-ecriture-web-reseau.html
• écritures "tertiaires" de la souscription et de l'agrégation
3
– activité centrale : la souscription // Dynamique temporelle (synchronie, a-synchronie).
– régime de l'autoritativité (dont nous sommes tantôt les sou-scripteurs tantôt les dé-scripteurs
29. Les 5 moments de l’écriture en réseau.
http://affordance.typepad.com/mon_weblog/2011/02/les-5-moments-ecriture-web-reseau.html
• Les écritures figuratives
4
– écritures attentionnelles recentrées, des écritures de soi
– tentation de devenir des écritures de la délation ou de la dilation.
30. Les 5 moments de l’écriture en réseau.
http://affordance.typepad.com/mon_weblog/2011/02/les-5-moments-ecriture-web-reseau.html
• des écritures applicatives
5
– écritures littéralement dépareillées, dés-appareillées // emblématiques du web « pousse-bouton »
– activité centrale : activité documentaire de thesaurisation // Dynamique cumulative
– Régime de nature discrétionnaire et concentrationnaire.
31. Objectif : « il n’y aura plus que des réponses »
32. Aliénation &
stéréotypies
Les « moteurs de recherche » ont été remplacés par
des « moteurs de suggestions »
*Google suggest > suggestions de
recherche
*Google Instant Search > auto-
complétion + affichage de résultats
en cours de frappe
LA RÉPONSE AVANT LA QUESTION **
Leur « puissance de frappe » implique
notre absence de frappe.
** http://affordance.typepad.com/mon_weblog/2010/09/la-reponse-avant-la-question.html
32
33. Web stéréotypique
• STÉRÉOTYPIE COMME IDÉALISATION ALGORITHMIQUE DU « PATTERN », DU « MOTIF ».
• "L'idée de jugement en extrême a pour but de ne présenter qu'une seule réponse, une seule voix, sans
aucune solution de rechange. (...) Voilà pourquoi les stéréotypes sont les éléments qui incitent à l'action.
Ils donnent la solution ultime. On ne discute pas, on agit."
• Moteurs : non plus répondre à mes questions mais apporter LA réponse aux questions des autres en
m’incitant à penser qu’elles sont miennes également. « Un » résultat actionnable et monétisable
• Pourquoi ?
– Pour maintenir l'internaute au coeur de l'écosystème hôte
– Permettre à l’écosystème hôte de garantir le couplage structurel entre l'intentionalité présidant au
requêtage et une action de consultation (« taux de transformation »).
• http://www.affordance.info/mon_weblog/2012/06/google-cache-des-juifs.html
35. • Technologies de l’abstraction
– Mathématique // Statistique (loi des grands nombres > Big Data)
• Technologies de la modélisation
– Algorithmique, programmation // « patterns »
• Technologies de la représentation
– Aide à la décision (systémes décisionnels)
– Outils prédictifs
• 1er temps (LOGOS) : les machines se servent de nos représentations (discours, pages web) pour
produire des modèles (algo) et les alimenter à l’aide de données (statistiques) 2ème limite
• 2nd temps (TOPOS) : boucle inversée > les machines se servent de données (statistiques) pour de
modéliser des comportements (algo) et y associer des représentations (discours, pages web) neutralités
36. A la marge : 1 approche fractale de la prédiction
• http://www.zdnet.fr/actualites/reseaux-sociaux-de-la-veille-en-temps-
reel-a-l-analyse-predictive-39789011.htm
• De la veille en temps-réel à l’analyse prédictive. Postule que le temps réel
est une contraction exacte des événements futurs
• Prédire le prochain « buzz »
• N’est que la partie émergée de l’iceberg.
37. Les politiques algorithmiques : les 4 temps
MATCHING : documentation comme croisement
2 des extériorités (moteurs de recherche /
PageRank « bibliométrique » )
WATCHING : la documentation comme
1 vue sur le monde (classifications, annuaires).
CATCHING : documentation comme captation
3 (des informations :Indexation ;
puis de l’attention (réseaux sociaux)
TRADING : capitalisation autocentrée des flux.
4
38. Les politiques algorithmiques
HFD. High Frequency Documenting.
• High Frequency Trading (HFT) : aucune intervention humaine ; algorithmes « donneurs d’ordres » sur
les marchés, à la milliseconde. http://www.agefi.fr/articles/le-high-frequency-trading-flash-trading-
1107761.html
• HFD = Internet des silos (Big Data) + indexation temps-réel + personnalisation + redocumentarisation
• HFD par l’exemple :
– On gère des flux (boursiers / documentaires)
– On capitalise sur ces flux (« capitalisme linguistique » : http://fkaplan.wordpress.com/2011/09/07/google-et-le-
capitalisme-linguistique/ + travaux Alain Giffard et B. Stiegler sur Lectures industrielles 3ème limite
http://www.journaldunet.com/ebusiness/le-net/trafic-web-robots-0312.shtml)
de
– Production de richesse en circuit fermé, dans une OPACITÉ TOTALE
neutralités
39. À coup sûr. Et à coût cognitif nul.
• Pacte Faustien de la prédiction : coût cognitif
doublement nul
– J’accepte la prédiction / suggestion car elle m’économise
le coût de la formalisation d’une recherche
– J’accepte de remplacer des externalités de navigation par
des internalités de consultation (tout est fait pour être
visionné, accédé, consulté, répondu à l’intérieur du
biotope ou de l’écosystème / paradigme de l’identifiant
unique)
• Manière drastique de régler le « lost in hyperspace
problem » de Conklin** : annuler la possibilité de
4ème limite désorientation et surcharge cognitive par une re-
de territorialisation contrainte, dont la géolocalisation
neutralités n’est que l’instance la plus faible.
** Conklin, E. Jeffery. "Hypertext: An Introduction and Survey." IEEE Computer 20
(September 1987): 17-41.
40. 2 stratégies
• Effet « petit monde » / jardins fermés
– Web des silos. Chaque acteur a intérêt à favoriser / valoriser /
orienter les résultats de son écosystème direct. Peut d’autant mieux
le faire que hyper-territorialisation
• Effet « grand monde » / externalités contrôlées. Re-
territorialisation.
– Prédiction algorithmique est une question de topologie (graphe) et de
randomisation contrôlée, modélisée (algorithme Pagerank)
41. Google, Facebook, Apple, Amazon, etc sont SUR le web, ils utilisent
l’infrastructure du Net, mais quand nous sommes chez eux nous ne
sommes plus sur le web, nous n’utilisons plus l’infrastructure du
net mais la LEUR.
LEURS règles, LEUR règlement intérieur, LEUR système de paiement,
etc…
RAPPEL …
Google
Facebook
Apple
Amazon
Twitter
41
42. D’une dynamique de publication à
une logique de détention.
Une (autre) histoire du web
Publication > Attention > Intention > Prédiction > Rétention > Détention
44. • Économie de l’attention (essor conjoint du web 2.0 et de ses « conversations » - cf
retour à oralité déjà évoqué)
45. • « We don’t need taxonomy
of knowledge. We need
taxonomy of desire, a
marketplace of intent »
Prabhakar Raghavan. Head
of Research and Strategy
chez Yahoo! Sept. 2008
Source : http://battellemedia.com/archives/2010/03/database_of_intentions_chart_-_version_2_updated_for_commerce.php
46. • ingénieries relationnelles de la prédiction
• Comportements, sentiments, désirs, pulsions …
47. • Biotopes attentionnels de la rétention (keep data)
• Data « centers ». Centralité en contradiction fondamentale avec principes de l’hypertexte (Lévy),
dont extériorité et mobilité des centres.
48. • jardins fermés de la Détention (web carcéral des jardins fermés)
• Internet des silos
• Extériorités « tolérées » dans la mesure où elles renforcent les dynamiques (économiques) propres au
biotope
• Interactions dégradées, de « bas niveau », kakonomiques**.
• Socialisation dégradée, à l’image d’un requêtage rendu inutile
** http://affordance.typepad.com/mon_weblog/2011/01/kakonomie-culturomie-et-folksonomie.html
« "La kakonomie c'est l'étrange mais très largement partagée préférence pour des échanges médiocres tant que personne ne trouve à
s'en plaindre. (…) La kakonomie est régulée par une norme sociale tacite visant à brader la qualité, une acceptation mutuelle pour un
résultat médiocre satisfaisant les deux parties, aussi longtemps qu'elles continuent d'affirmer publiquement que leurs échanges
revêtent en fait une forte valeur ajoutée.
49. Je prédis que je suis
en retard, donc …
pour conclure
50. 1ère limite 2ème limite
de de
neutralités neutralités
Carré sémiotique de la neutralité des opérateurs de l’accès
3ème limite 4ème limite
de de
neutralités neutralités
Topos l’emporte sur « logos »
Re/hyper-territorialisation
Web proscrit
Web « neutralisé »
Web « neutralisé »
Internet (interweb ?) des silos
Internet (interweb ?) des silos
Trading (monétisation et capitalisation des flux + délégation algo)
51. Enjeu politique : de Norman Muller à Nate Silver
• La prédiction est d’abord un outil et en enjeu « politique »
• Asimov « Le Votant ».
http://affordance.typepad.com/mon_weblog/2012/06/le-petit-lien-du-
votant.html
• « Matthew regarda gravement la petite fille, puis il la souleva et l’assit sur son
genou (…)
— Je ne suis pas fâché contre toi, Linda. Mais, tu comprends, parfois il fallait
toute la nuit pour compter ce que tout le monde avait dit, alors on
s’impatientait. On a donc inventé des machines spéciales, capables de
regarder les quelques premiers votes et de les comparer avec le nombre des
voix au même endroit, au cours des années précédentes. Comme ça, la
machine pouvait calculer le total des voix et faire savoir qui était élu. Tu vois ?
Elle hocha la tête.
— Comme Multivac.
— Les premiers ordinateurs étaient bien plus petits que Multivac. Mais les
machines sont devenues de plus en plus grandes et elles ont pu donner le
résultat de l’élection avec de moins en moins d’électeurs. Finalement, on a
construit Multivac, il est capable de donner le résultat avec un seul votant. »
• Google est démocrate. Facebook est républicain …
52. Questionnement éthique.
• // avec bioéthique.
• La question n’est pas celle de l’intimité « sur le web ». Il n’y a pas d’intimité possible dans un espace public
ou semi-privé. En revanche, nos environnements informationnels connectés sont, avec notre corps, ce que
nous avons de plus intime dans notre rapport au monde. La question de l’intimité n’est donc pas liée à ce
que nous faisons de notre corps (même virtuel) DANS le monde numérique mais à la manière dont notre
intimité corporelle fait interface avec nos pratiques numériques. Les interrogations – légitimes – autour de
la « privacy » sont avant tout des manières de questionner ce couplage.
• Mais aucun comité d’éthique du web.
• #ohwait : 1ère démarche éthique est une démarche épistémologique
• "Mieux ou pire, le numérique par ses capacités calculatoires permet de
reconstruire des documents à la demande et nous donne l'illusion d'avoir toutes
les réponses à nos questions avant même qu'elles ne soient posées, comme si
notre futur était un destin déjà inscrit dans les machines. » Salaün Jean-Michel
• http://blogues.ebsi.umontreal.ca/jms/index.php/post/2011/09/19/Document-et-protodocument
53. er ci.
.? . .M
qu
e st
ion
s .?
.q
ue T gm
ail.co
m
sc h
r.ertz w.affor sti
eid A dance.info
SA
ibliog
ivie
V : ol phie : ww
ra o ns
B
.? .
53
Notes de l'éditeur
Suggestion et auto-complétion : pas loin de l’auto-suggestion. Sauf que là elle est médiée par Google. Donc Google nous dit quoi penser, quoi chercher, quoi trouver. Il est toujours plus facile de fournir les bonnes réponses quand on connaît les questions à l’avance. 100 000 recherches par seconde. Plus de 3000 milliards de recherches par an.
1.a) l’activité du robot de lecture, ses actes de lecture: scanner, crawler, indexer. b) les produits dérivés de cette activité, les textes de lecture en langage humain. 2.a) l’association des lectures humaines et des lectures machiniques. b) la commercialisation des lectures humaines définies comme «hits». 3.a) l’espace des lectures industrielles est le face-à-face des industries de lecture et des publics de lecteurs. b) l’industrie de la lecture entreprend la commercialisation de toutes les lectures, sous le slogan de l’ «accès à toute l’information». c) l’industrie de la lecture entreprend aussi la commercialisation des lecteurs." Aujourd'hui les moteurs ne sont plus de "simples" indexeurs mais également des scripteurs capables de s'affranchir du code de l'auteur, donnant à l'expression "écriture industrielle" tout son sens.
Suggestion et auto-complétion : pas loin de l’auto-suggestion. Sauf que là elle est médiée par Google. Donc Google nous dit quoi penser, quoi chercher, quoi trouver. Il est toujours plus facile de fournir les bonnes réponses quand on connaît les questions à l’avance. 100 000 recherches par seconde. Plus de 3000 milliards de recherches par an.
traitement par lots, enchaînement automatique de commandes (processus) sur un ordinateur sans intervention d'un opérateur.
Le « high frequency trading », très développé chez les arbitragistes (hedge funds et comptes propres de banques), consiste à jouer sur les inefficiences des marchés que la volatilité a démultipliées ces derniers mois. Dans un cas simple, le gérant achète une grande quantité de titres (plutôt liquides de type « blue chips ») sur une plate-forme pour les revendre presque instantanément sur une autre où le prix était supérieur, en toute transparence « pre-trade » : le premier cours va monter et le deuxième baisser, rendant les marchés plus efficients (d'autres arbitrages porteront par exemple sur deux valeurs différentes mais corrélées). A ce jeu où deux algorithmes équivalents vont détecter l'incohérence, c'est l'exécution la plus rapide qui l'emporte. D'où une course à la « milliseconde », qui se traduit par un rapprochement géographique entre plates-formes, intermédiaires et arbitragistes. Pour raccourcir encore la période de latence, les plates-formes proposent même désormais dans leurs locaux des postes en colocation à destination des autres intervenants : bientôt 300 installés chez Nyse Euronext grâce au déménagement informatique dans le sud-est de l'Angleterre.