Tribunes

Florange Telecom

L'approche radicaliste de l'architecture du Web : l'assembleur

Big Dataxe

Le Big Data individuel

La comptine du cloud

Toute les tribunes

La vidéo du moment
Actualité marchés verticaux

Chronopost lance la livraison le dimanche

par Rick
le 23/09/2017 à 12:33

Les notaires adoptent la lettre recommandée électronique de Maileva

par arnaud
le 13/09/2017 à 11:28

Captivea ouvre le premier club utilisateur SugarCRM francophone

par Celia Jay
le 21/08/2017 à 10:35

Captivea ouvre le premier club utilisateur SugarCRM francophone

par Francois PAPON
le 11/08/2017 à 11:59

Capgemini améliore sa marge

par lecteur-itrnews
le 10/08/2017 à 03:51

Rechercher
Services
Logo_abonn Job Les derniers communiqués de presse Proposer un communiqué de presse
Fils RSS : Top 10 quotidien

Le rôle des supercalculateurs sur le marché changeant du pétrole et du gaz,
Par Bert Beals, Global Head of Energy chez Cray

mardi 5 avril 2016

La baisse des prix du pétrole pousse bon nombre des sociétés spécialisées dans l’exploration et la production à optimiser leurs processus et à trouver de nouvelles zones de forage à bas coût afin de répondre à la très forte demande des consommateurs. Dans ce contexte, le calcul haute performance s’avère stratégique pour les entreprises qui cherchent à améliorer toujours plus leur efficacité.
Les supercalculateurs permettent aux compagnies pétrolières et gazières d’effectuer des simulations, des modélisations et d’autres tâches afin de mieux fonder leurs décisions. Le matériel tout comme les algorithmes utilisés pour produire ces résultats n’ont pas cessé d’évoluer. Ce simple fait a considérablement changé la donne, obligeant les entreprises à mettre en œuvre des solutions spécifiques toujours plus puissantes pour rester dans la course.

Qualité et complexité
Des algorithmes complexes sont utilisés dans de nombreux domaines du secteur, en particulier dans le traitement des données sismiques, pour lequel des images haute-fidélité sont indispensables. Bon nombre d’entreprises de traitement du pétrole et du gaz se heurtent à la même problématique : le recours à des algorithmes plus complexes et la manipulation d’ensembles de données très denses exigés par les simulations sismiques actuelles mettent à rude épreuve leurs clusters classiques.

Bien que les possibilités offertes par les mathématiques aient toujours été en avance sur le matériel, on peut aujourd’hui réaliser des tâches comme l’inversion de forme d’onde complète en quelques semaines voire quelques jours, alors qu’il fallait des années auparavant.

Changement d’infrastructure
Alors que les innovations dans le traitement sismique résultaient habituellement de l’introduction de nouveaux processeurs plus rapides associés à de nouveaux algorithmes conçus pour tirer parti des systèmes les plus récents, on constate aujourd’hui que certains algorithmes doivent être étendus à de multiples nœuds de calcul, ce qui rend les technologies d’interconnexion comme Ethernet et InfiniBand inadaptées. Les algorithmes modernes de demande d’entrée-sortie (E/S) placés sur un seul nœud de calcul deviennent plus exceptionnels.

Il s’avère par conséquent qu’augmenter la puissance de traitement des ordinateurs existants n’est plus une solution viable. Pour répondre aux exigences de performances, il faut créer de toutes pièces les systèmes appropriés.

Applications et architecture
Pour pouvoir utiliser les applications haut de gamme, il faut des systèmes dotés de fonctions de traitement massivement parallèle. Les projets d’envergure que bon nombre de grandes entreprises prévoient de mettre en œuvre exigeront une puissance de traitement bien supérieure à celle dont elles disposent actuellement. Par exemple, une multinationale du secteur de l’énergie estime qu’en 2020, il lui faudra plus de 100 pétaflops pour ses besoins d’analyse et de traitement des données sismiques dans le cadre de ses nouveaux sondages haute densité en 3D.

Afin d’exploiter leurs ressources de traitement de manière optimale, les entreprises du secteur pétrolier et gazier devront à l’avenir préférer les solutions appliquant des méthodes innovantes à celles basées sur des modèles de fonctionnement traditionnels. Elles s’orienteront de plus en plus vers les systèmes HPC spécialisés dans le déplacement des données entre les différents nœuds de supercalcul.

Révolution matérielle
Les processeurs graphiques (GPU) et autres processeurs à plusieurs cœurs s’ajoutent aujourd’hui aux CPU multi-cœurs afin de répondre aux besoins croissants des workflows de traitement sismique.
Alors que les ressources de supercalcul gagnent en puissance et en évolutivité, les entreprises du secteur s’acheminent de plus en plus vers l’intégration de leurs équipes, ce qui amènera l’ensemble de leur personnel à travailler à partir du même modèle et donc à terme à une accélération des délais de réalisation.

Analyse de réservoir
Les avancées dans le domaine du supercalcul devraient avoir des incidences majeures sur les taux d’extraction en améliorant progressivement l’analyse de réservoir. L’accélération de la vitesse de calcul permet aux ingénieurs de réservoir d’étudier nettement plus de réalisations de modèles qu’auparavant. Avec la puissance de traitement et le savoir-faire appropriés, il est possible de simuler 45 années de production en deux heures et demie seulement.

L’essor analytique
Les niveaux de puissance de calcul atteints aujourd’hui ainsi que l’accroissement du nombre de sondes et des volumes de données vont vraisemblablement modifier les fondements de l’industrie pétrolière et gazière, alors que l’analyse des données continue de jouer un rôle de plus en plus important dans le processus d’exploration et de production.
Les outils analytiques haute performance sont aujourd’hui en mesure de collecter les données de milliers de têtes de puits, machines, sondes, applications et véhicules, même si le potentiel de bon nombre de ces données n’est toujours pas pleinement exploité. Toutefois, pour l’intégration de plate-forme, les entreprises du secteur appliquent les processus habituels de calcul haute performance tout en utilisant des techniques innovantes comme l’analyse en continu ou le traitement de gros volumes de données avec Spark.
Les équipes ont ainsi la possibilité d’effectuer des analyses de schéma et de corrélation parallèlement aux workflows de traitement sismique, ce qui réduit le nombre d’itérations nécessaires. L’analyse des ondelettes sismiques permet de déceler les attributs géophysiques avantageux même s’ils n’apparaissent pas clairement sur le modèle mathématique.

Répondre aujourd’hui aux besoins de demain
Les entreprises peuvent à présent utiliser des outils d’analyse haute performance dans les domaines où elles appliquaient auparavant des workflows conçus à partir de modèles mathématiques. L’analyse des données en temps réel permet aux entreprises de déterminer immédiatement si les informations qu’elles reçoivent sont fiables, ce qui leur fait gagner du temps et économiser des ressources.
Dans le contexte actuel, les entreprises pétrolières et gazières doivent être en mesure de trouver et de produire des hydrocarbures de manière plus rapide, plus efficace et plus sûre que jamais. L’élan mondial en faveur du développement durable fait de l’efficacité énergétique une question cruciale tandis que la raréfaction de plus en plus prononcée des ressources accentue la concurrence entre les entreprises. Disposer des bonnes informations permet de prendre une longueur d’avance tout en simplifiant les processus et en améliorant la sécurité sur le terrain.
L’évolution permanente des besoins, aujourd’hui comme demain, ne peut être prise en compte avec les modèles de supercalcul du passé. Seules les nouvelles solutions en cours de développement permettront d’y répondre.


À propos
Leader mondial des supercalculateurs, Cray fournit des systèmes et des solutions de pointe permettant aux scientifiques et aux ingénieurs dans l’industrie, les universités et l’administration de résoudre les problématiques actuelles et futures de simulation et d’analyse. Fort de plus de 40 ans d’expérience dans l’univers des supercalculateurs les plus performants au monde, Cray propose une gamme complète de systèmes et de solutions de stockage et d’analyse d’énormes volumes de données conjuguant performances, efficacité et évolutivité hors pair. À travers sa vision Adaptive Supercomputing, Cray s’emploie à faire naître une nouvelle génération de produits innovants qui intègrent différentes technologies de traitement sous forme d’architecture unifiée, permettant ainsi à ses clients de répondre à la demande constante de performances toujours plus importantes.

SQ 250-300

Les 10 derniers articles mis en ligne