Please use this identifier to cite or link to this item:
http//localhost:8080/jspui/handle/123456789/11572
Full metadata record
DC Field | Value | Language |
---|---|---|
dc.contributor.author | ABDELOUAHAD, Maroua / Khaoula, AMRANI / Encadré par KHEMAISSIA, Seddik | - |
dc.date.accessioned | 2024-07-14T11:41:26Z | - |
dc.date.available | 2024-07-14T11:41:26Z | - |
dc.date.issued | 2024-06 | - |
dc.identifier.uri | http//localhost:8080/jspui/handle/123456789/11572 | - |
dc.description.abstract | "Ce mémoire vise à explorer l'application de l'apprentissage par renforcement profond (DRL) aux stratégies de trading algorithmique. Les principaux objectifs sont : Comprendre les Fondamentaux dans : Chapitre 1 : Apprentissage par Renforcement (RL),Concepts clés : agents, environnements, actions, états, récompenses,Politiques, fonctions de valeur, fonctions de valeur Q,Le défis dilemme exploration-exploitation, convergence des algorithmes. Chapitre 2 : Apprentissage Profond (Deep Learning) Réseaux de neurones artificiels : couches, fonctions d'activation, propagation avant et arrière.Réseaux de Neurones Convolutionnels (CNN) : reconnaissance d'images, traitement des données spatiales.Techniques d'entraînement : optimisation par descente de gradient. Analyser les Algorithmes de DRL dans le Chapitre 3 : Apprentissage par Renforcement Profond (DRL) DQN : Utilisation des réseaux de neurones pour approximer la fonction de valeur Q. Double DQN : Réduction de la surestimation des valeurs Q. Dueling DQN : Séparation de la valeur d'un état et de l'avantage des actions. Implémentation dans Chapitre 4 : Application du DRL au Marché Boursier Développement de stratégies de trading algorithmique adaptées aux conditions de marché changeantes. par les étapes : Préparation des données : collecte, nettoyage, prétraitement des données de marché historiques. Modélisation de l'environnement de trading : définition des états, actions, récompenses. Implémentation des algorithmes DRL : développement et entraînement des modèles DQN, Double DQN, Dueling DQN. Évaluation et optimisation : test des stratégies, ajustement des hyperparamètres, évaluation des performances. Le mémoire vise à améliorer les pratiques de trading algorithmique en minimisant les risques et maximisant les profits grâce aux capacités de l'IA et du DRL. Il fournit une compréhension détaillée des concepts et techniques, des exemples d'implémentation, et des études de cas pratiques, ouvrant la voie à des systèmes de trading plus intelligents et efficaces" | en_US |
dc.language.iso | fr | en_US |
dc.publisher | UNIVERSITE DE ECHAHID CHEIKH LARBI TEBESSI | en_US |
dc.subject | "Apprentissage Par Renforcement Profond Apprentissage profond Réseaux neuronaux artificiels" | en_US |
dc.title | Apprentissage Par Renforcement Profond Concept et Application | en_US |
dc.type | Thesis | en_US |
Appears in Collections: | 5-Électronique et Télécommunications |
Files in This Item:
File | Description | Size | Format | |
---|---|---|---|---|
Apprentissage Par Renforcement Profond.pdf | 2,96 MB | Adobe PDF | View/Open |
Items in DSpace are protected by copyright, with all rights reserved, unless otherwise indicated.
Admin Tools