L’effort d’Apple du côté du son (voir édition du jour) intervient un an après la mise à jour de sa technologie de traitement du signal intégrée à Mac OS X. Pour être prioritaires, les services de traitement sonore sont en effet intégrés au système sous la forme de deux API, intitulées Core Audio et Core MIDI. Résultat : un temps de latence de moins d’une microseconde (un millième de milliseconde !). En prime, le traitement du son est unifié au coeur du système, ce qui permet à tous les produits matériels ou logiciels les utilisant d’interagir. Ainsi le composant Core MIDI de Mac OS X contrôle-t-il l’accès des interfaces MIDI, tandis que Core Audio gère les entrées et sorties vers le matériel audio. Apple a ajouté à ces deux composants des unités audio (Audio Units ou AU) qui servent d’interfaces aux plug-ins et aux instruments. Sous Mac OS X, les communications audio et MIDI de toutes les applications sont gérées et intégrées dans le système. Un support qui permet la combinaison d’autant de sources qu’on le désire. L’intégration des Audio Units n’est intervenue qu’en juillet 2002, retardant d’autant la montée en puissance de solutions les utilisant. Et ce n’est pas tout : selon eMagic, l’unité Altivec du G5 permet de traiter les processus vectorisés qui sont au coeur des applications modernes de traitement du son.
Quelle part d’incertitude faut-il accepter dans la mise en conformité des IA avec le RGPD…
Microsoft a dévoilé les prix des mises à jour de sécurité étendues pour Windows 10.…
Docaposte a sélectionné une douzaine de spécialistes français pour créer un Pack cybersécurité spécialement étudié…
La Surface Pro 10 sera disponible le 9 avril en France. Passage en revue de…
Que réserve Office 2024 ? Une première version de test officielle sera disponible en avril.…
Microsoft Teams évolue dans une version « unifiée » qui permet de combiner les usages…