![]() | Monter d'un niveau |
Ce graphique trace les liens entre tous les collaborateurs des publications de {} figurant sur cette page.
Chaque lien représente une collaboration sur la même publication. L'épaisseur du lien représente le nombre de collaborations.
Utilisez la molette de la souris ou les gestes de défilement pour zoomer à l'intérieur du graphique.
Vous pouvez cliquer sur les noeuds et les liens pour les mettre en surbrillance et déplacer les noeuds en les glissant.
Enfoncez la touche "Ctrl" ou la touche "⌘" en cliquant sur les noeuds pour ouvrir la liste des publications de cette personne.
Un nuage de mots est une représentation visuelle des mots les plus fréquemment utilisés dans un texte ou un ensemble de textes. Les mots apparaissent dans différentes tailles, la taille de chaque mot étant proportionnelle à sa fréquence d'apparition dans le texte. Plus un mot est utilisé fréquemment, plus il apparaît en grand dans le nuage de mots. Cette technique permet de visualiser rapidement les thèmes et les concepts les plus importants d'un texte.
Dans le contexte de cette page, le nuage de mots a été généré à partir des publications de l'auteur {}. Les mots présents dans ce nuage proviennent des titres, résumés et mots-clés des articles et travaux de recherche de cet auteur. En analysant ce nuage de mots, vous pouvez obtenir un aperçu des sujets et des domaines de recherche les plus récurrents et significatifs dans les travaux de cet auteur.Le nuage de mots est un outil utile pour identifier les tendances et les thèmes principaux dans un corpus de textes, facilitant ainsi la compréhension et l'analyse des contenus de manière visuelle et intuitive.
Bouchoucha, R., Haj Yahmed, A., Patil, D., Rajendran, J., Nikanjam, A., Anbil Parthipan, S. C., & Khomh, F. (octobre 2024). Toward Debugging Deep Reinforcement Learning Programs with RLExplorer [Communication écrite]. IEEE International Conference on Software Maintenance and Evolution (ICSME 2024), Flagstaff, AZ, USA. Lien externe
Govindarajan, P., Miret, S., Rector-Brooks, J., Phielipp, M., Rajendran, J., & Chandar, S. (2024). Learning conditional policies for crystal design using offline reinforcement learning. Digital Discovery, 3(4), 769-785. Disponible
Nekoei, H., Badrinaaraayanan, A., Sinha, A., Amini, M., Rajendran, J., Mahajan, A., & Anbil Parthipan, S. C. (août 2023). Dealing with non-stationarity in decentralized cooperative multi-agent deep reinforcement learning via multi-timescale learning [Communication écrite]. 2nd Conference on Lifelong Learning Agents (CoLLAs 2023), Montreal, Qc. Canada. Non disponible
Nekoei, H., Zhao, X. T., Rajendran, J., Liu, M. A., & Anbil Parthipan, S. C. (août 2023). Towards few-shot coordination : revisiting ad-hoc teamplay challenge in the game of Hanabi [Communication écrite]. 2nd Conference on Lifelong Learning Agents (CoLLAs 2023), Montreal, Qc, Canada. Non disponible
Patil, D., Rajendran, J., Berseth, G., & Anbil Parthipan, S. C. (mai 2024). Intelligent Switching for Reset-Free RL [Communication écrite]. 12th International Conference on Learning Representations (ICLR 2024), Vienna, Austria. Lien externe
Rahimi-Kalahroudi, A., Rajendran, J., Momennejad, I., van Seijen, H., & Anbil Parthipan, S. C. (août 2023). Replay buffer with local forgetting for adapting to local environment changes in deep model-based reinforcement learning [Communication écrite]. 2nd Conference on Lifelong Learning Agents (CoLLAs 2023), Montreal, Qc, Canada. Lien externe
Rajendran, J., Khapra, M. M., Anbil Parthipan, S. C., & Ravindran, B. (juin 2016). Bridge Correlational Neural Networks for Multilingual Multimodal Representation Learning [Communication écrite]. Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, San Diego, California. Lien externe
Samsami, M. R., Zholus, A., Rajendran, J., & Anbil Parthipan, S. C. (mai 2024). Mastering Memory Tasks with World Models [Communication écrite]. 12th International Conference on Learning Representations (ICLR 2024), Vienna, Austria. Lien externe
Saha, A., Khapra, M. M., Anbil Parthipan, S. C., Rajendran, J., & Cho, K. (décembre 2016). A Correlational Encoder Decoder Architecture for Pivot Based Sequence Generation [Communication écrite]. 26th International Conference on Computational Linguistics (COLING 2016), Osaka, Japan. Lien externe
Vaithilingam Sudhakar, A., Nekoei, H., Reymond, M., Rajendran, J., Liu, M., & Anbil Parthipan, S. C. (avril 2025). A generalist hanabi agent [Communication écrite]. 13th International Conference on Learning Representations (ICLR 2025), Singapore, Singapore. Lien externe
Wan, Y., Rahimi-Kalahroudi, A., Rajendran, J., Momennejad, I., Anbil Parthipan, S. C., & van Seijen, H. (juillet 2022). Towards Evaluating Adaptivity of Model-Based Reinforcement Learning Methods [Communication écrite]. 39th International Conference on Machine Learning (ICML 2022), Baltimore, MD. Lien externe
Zhao, X., Pan, Y., Xiao, C., Anbil Parthipan, S. C., & Rajendran, J. (juillet 2023). Conditionally Optimistic Exploration for Cooperative Deep Multi-Agent Reinforcement Learning [Communication écrite]. 39th Conference on Uncertainty in Artificial Intelligence (UAI 2023), Pittsburgh, PA, USA. Lien externe