
Le mouvement d’une charge électrique est connu sous le nom de courant électrique, dont l’intensité est généralement mesurée en ampères. Le courant peut être constitué de n’importe quelle particule chargée en mouvement ; le plus souvent, il s’agit d’électrons, mais toute charge en mouvement constitue un courant. Le courant électrique peut traverser certaines choses, les conducteurs électriques, mais ne traversera pas un isolant électrique.
Par convention historique, un courant positif est défini comme circulant de la partie positive d’un circuit vers la partie négative. Le courant défini de cette manière va alors dans le « sens conventionnel ». Le mouvement des électrons dans un circuit électrique est ainsi considéré comme allant dans la direction opposée à celle du « sens conventionnel », les électrons étant chargés négativement.
Le processus par lequel le courant électrique traverse un matériau est appelé conduction électrique, et sa nature varie en fonction de celle des particules chargées et du matériau qu’elles traversent. Parmi les exemples de courants électriques, on peut citer la conduction métallique, où les électrons circulent dans des conducteurs tel que le métal, et l’électrolyse, où les ions (atomes chargés) circulent dans des liquides ou dans des plasmas (étincelles électriques). Alors que les particules elles-mêmes peuvent se déplacer assez lentement, parfois avec une vitesse de dérive moyenne de seulement quelques fractions de millimètre par seconde, le champ électrique qui les anime se propage lui-même à une vitesse proche de celle de la lumière, permettant aux signaux électriques de passer rapidement le long des fils.
Un courant provoque plusieurs effets observables, qui permettent de reconnaître sa présence. En 1800, William Nicholson et Anthony Carlisle découvrent que l’eau peut être décomposée par le courant d’une pile voltaïque, un processus maintenant connu sous le nom d’électrolyse de l’eau. Leurs travaux sont ensuite largement développés par Michael Faraday en 1833. Le courant traversant une résistance provoque un échauffement localisé, un effet que James Prescott Joule étudie mathématiquement en 1840. L’une des découvertes les plus importantes concernant le courant est faite accidentellement par Hans Christian Ørsted en 1820, lorsque, alors qu’il prépare une conférence, il voit le courant dans un fil perturber l’aiguille d’une boussole magnétique. Il découvre ainsi l’électromagnétisme, une interaction fondamentale entre l’électricité et le magnétisme. Le niveau des émissions électromagnétiques générées par un arc électrique est suffisamment élevé pour produire des interférences électromagnétiques qui peuvent nuire au fonctionnement des équipements adjacents.
Dans les applications techniques ou domestiques, le courant est souvent décrit comme étant soit un courant continu (DC), soit un courant alternatif (AC). Ces termes font référence à la façon dont le courant varie dans le temps. Le courant continu, tel qu’il est produit par exemple à partir d’une batterie et requis par la plupart des appareils électroniques, est un flux unidirectionnel de la partie positive d’un circuit vers la partie négative. Si, comme c’est le cas le plus souvent, ce flux est transporté par des électrons, ceux-ci se déplacent dans la direction opposée. Le courant alternatif est un courant qui s’inverse de manière répétée ; il prend presque toujours la forme d’une onde sinusoïdale. Le courant alternatif est donc pulsé dans un conducteur sans que la charge ne se déplace sur une distance nette dans le temps. La valeur moyenne dans le temps d’un courant alternatif est nulle, mais il fournit de l’énergie dans un sens puis dans l’autre. Le courant alternatif est affecté par des propriétés électriques qui ne sont pas observées en régime permanent de courant continu, comme l’inductance et la capacité.