- Search jobs
- saguenay qc
- data entry
Data entry Jobs in Saguenay qc
Consultant en Ingénierie de données - Plateformes Azure / Azure Data Engineering Consultant
AvanadeChicoutimi, Canada- Promoted
AI Trainer for French Writers / Speakers (Freelance, Remote)
AlignerrSaguenay, Quebec, CanadaRetail Merchandiser
CB CanadaSaguenay, Quebec, CanadaElectrical Engineer, Power System Studies
BBA ConsultantsSaguenay-Lac-Saint-Jean, QC, CADirector Finance, Commercial Financial Services
0000050007 Royal Bank of CanadaSAGUENAY, Quebec, Canada(Work From Home) Data Entry - %100 Remote
FocusGroupPanelSaguenay, Quebec, Canada- Promoted
- Promoted
Data Entry Clerk (Remote)
ApexFocusGroupSaguenay, QC, CanadaANALYST, ONLINE FINANCING – Temporary 12 month contract
BDCSaguenay / Lac St-JeanSocial Worker, Psychotherapist, Psychologist, Sexologist or Psychoeducator (Remote EAP counsellor)
LifeWorksChicoutimi, Quebec, Canada- Promoted
AI Data Trainer - Mathematics Specialist
OutlierSaguenay, Quebec, CanadaEntry Level Options Trader Job in Chicoutimi, QC | Full Time
Maverick TradingChicoutimi, Saguenay, QC, CanadaDirecteur(trice) de l'ingénierie
PyrotekSaguenay, Québec, CanadaMortgage Specialist
BMOChicoutimi, QC- Promoted
Remote Entry Level Stock Trader Job in Chicoutimi, QC | Full Time
Maverick FXChicoutimi, QCTechnical Artist (Environment)
UbisoftSaguenay, QC, CADriver - Saguenay, Quebec
MarkJames SearchSaguenayLiaison sciences médicales, vaccins - Québec / Medical Science Liaison, Vaccines Specialty Care (Québec)
837 GlaxoSmithKline Inc.Canada – Quebec – SaguenayConsultant en Ingénierie de données - Plateformes Azure / Azure Data Engineering Consultant
AvanadeChicoutimi, CanadaPlongez dans l'univers de l'analytique avancée pour transformer les données en décisions stratégiques chez Avanade.
Dive into the advanced analytics universe to transform data into strategic decisions at Avanade
Le / La concepteur / conceptrice de données Data & Analytiques créera des scripts de données à l'aide du logiciel ETL pour permettre des analyses avancées et une science des données dans l'ensemble de l'entreprise et de nos parties prenantes. Il / Elle construira et prendra en charge les pipelines d'ingestion de données et ETL, créera des microservices et participera à l'analyse exploratoire des données. Il devra effectuer des tests de développement et participer à toutes les phases de tests et de déploiement.The Data & Analytics Data Developer will create data scripts using ETL software to enable advanced analytics and data science across the enterprise and our stakeholders. He / She will build and support data ingestion and ETL pipelines, create microservices, and participate in exploratory data analysis. He / she will be required to perform development tests and participate in all phases of testing and deployment.
- De l'expérience en technologie informatique ou en opérations dans une grande entreprise
- Diplôme en ingénierie, informatique ou mathématiques / statistiques
- Doit avoir une solide expérience avec, SQL, PySpark, Python
- Doit avoir une expérience avec les technologies Big Data (par exemple Azure DataLake, Storage, Snowflake)
- Doit avoir une expérience avec les technologies ETL (Talend, Azure DataBricks, Azure DataFactory)
- Maîtrise des bases de données relationnelles (Oracle, DB2, SQL Server, etc .) et SQL
- Expérience avec les plateformes de cloud (Microsoft Azure, AWS, Google Cloud ou Snowflake) et avec l'entreposage de données
- Expérience de travail dans un environnement d'équipe Agile
- Connaissance des outils de déploiement, de surveillance et de fiabilisation des sites
- Capacité à travailler en coopération avec les autres membres d'une équipe et à piloter efficacement des solutions inter-équipes présentant des dépendances et des exigences complexes.
- Excellentes compétences en communication et en résolution de problèmes
- Une expérience en développement d'API est un atout
- Experience in computer technology or operations in a large company
- Degree in Engineering, Computer Science or Mathematics / Statistics
- Must have a strong background with, SQL, PySpark, Python
- Must have experience with Big Data technologies (e.g. Azure DataLake, Storage, Snowflake)
- Must have experience with ETL technologies (Talend, Azure DataBricks, Azure DataFactory)
- Proficiency in relational databases (Oracle, DB2, SQL Server, etc.) and SQL
- Experience with cloud platforms (Microsoft Azure, AWS, Google Cloud, or Snowflake) and data warehousing
- Experience working in an Agile team environment
- Knowledge of site deployment, monitoring and reliability tools
- Ability to work cooperatively with other team members and effectively drive cross-team solutions with complex dependencies and requirements.
- Excellent communication and problem-solving skills
- Experience in API development is an asset
- Caractéristiques qui démontrent le succès pour ce rôle :
- Analytique, curieux, agile
- Joueur d'équipe et bon communicateur
- Résolveur de problèmes, patient et axé sur la qualité
- Autonome
- Esprit innovant
- Characteristics that demonstrate success for this role :
- Analytical, curious, agile
- Team player and good communicator
- Problem-solving, patient and quality-oriented
- Autonomous
- Innovative spirit
- Concevoir et développer des pipelines de traitement qui ingèrent des données dans un lac de données
- Concevoir et développer des pipelines ETL en utilisant plusieurs sources de données dans différents formats entre le lac de données et l'entrepôt de données.
- Effectuer la gestion des métadonnées, le nettoyage et la conformité des données.
- Utiliser de bonnes pratiques de développement agiles (révisions de code, tests, etc.) pour développer et fournir des pipelines de données.
- Fournir un support quotidien et une expertise technique aux équipes techniques et non techniques.
- Faire preuve d'un bon jugement, d'un sens aigu du détail et de ténacité pour résoudre des problèmes difficiles.
- Utiliser de solides compétences analytiques et soutenir l'utilisation des données pour une prise de décision judicieuse.
- Aider à développer une expertise et un cadre de conception des données.
- Développer une expertise autour des données et de leurs flux.
- Collaborer avec les programmeurs, les analystes de données et les dirigeants de l'organisation pour identifier les opportunités d'amélioration des processus.
- Traduire les besoins de client en exigences techniques
- Design and develop processing pipelines that ingest data into a data lake
- Design and develop ETL pipelines using multiple data sources in different formats between the data lake and the data warehouse.
- Perform metadata management, data cleansing, and compliance.
- Use agile development best practices (code reviews, testing, etc.) to develop and deliver data pipelines.
- Provide day-to-day support and technical expertise to technical and non-technical teams.
- Demonstrates good judgment, a keen eye for detail and tenacity to solve difficult problems.
- Use strong analytical skills and support the use of data for sound decision-making.
- Help develop expertise and a data design framework.
- Develop expertise around data and its flows.
- Collaborate with programmers, data analysts and organizational leaders to identify opportunities for process improvement.
- Translating customer needs into technical requirements
Quelques-uns des meilleurs aspects de travailler chez Avanade :
Avantages sociaux chez AvanadeSome of the best things about working at Avanade :