Mac OS X, le son au coeur du système

Cloud

Si Apple s’attaque aujourd’hui au monde de la musique, c’est parce que Mac OS X est prêt pour cela.

L’effort d’Apple du côté du son (voir édition du jour) intervient un an après la mise à jour de sa technologie de traitement du signal intégrée à Mac OS X. Pour être prioritaires, les services de traitement sonore sont en effet intégrés au système sous la forme de deux API, intitulées Core Audio et Core MIDI. Résultat : un temps de latence de moins d’une microseconde (un millième de milliseconde !). En prime, le traitement du son est unifié au coeur du système, ce qui permet à tous les produits matériels ou logiciels les utilisant d’interagir. Ainsi le composant Core MIDI de Mac OS X contrôle-t-il l’accès des interfaces MIDI, tandis que Core Audio gère les entrées et sorties vers le matériel audio. Apple a ajouté à ces deux composants des unités audio (Audio Units ou AU) qui servent d’interfaces aux plug-ins et aux instruments. Sous Mac OS X, les communications audio et MIDI de toutes les applications sont gérées et intégrées dans le système. Un support qui permet la combinaison d’autant de sources qu’on le désire. L’intégration des Audio Units n’est intervenue qu’en juillet 2002, retardant d’autant la montée en puissance de solutions les utilisant. Et ce n’est pas tout : selon eMagic, l’unité Altivec du G5 permet de traiter les processus vectorisés qui sont au coeur des applications modernes de traitement du son.