Canalblog
Suivre ce blog Administration + Créer mon blog

Premiers pas virtuels ves le Traitement automatique de la parole en Alsace

Archives
Visiteurs
Depuis la création 2 741
1 mai 2015

Formation pour les traducteurs. Comment traduire ses compétences en chiffre d'affaires ?


Quels sont les objectifs de la formation ? Permettre aux traducteurs et interprètes indépendants d’acquérir les moyens de maîtriser l’action commerciale et donc de développer leur chiffre d’affaires.
A qui s'adresse cette formation ? Traducteurs et interprètes indépendants, installés à leur compte, en profession libérale ou en société.
Programme de la session :
• Quelle vision avez-vous de la vente ? Comment un traducteur peut-il adopter une image positive de la démarche commerciale ?
• Comment définir ses atouts de traducteur ou interprète.
• Les trois critères clés pour cibler un bon prospect.
• Pourquoi et comment soigner sa préparation mentale avant d’entamer une séance de phoning.
• Comment se présenter de façon claire et rapide.
• Comment créer un climat de confiance.
• Comment prendre appui et rebondir de façon positive.
• Pour quelles raisons la prise de notes est un outil stratégique.
• Comment conclure et verrouiller un rendez-vous.
• Les deux piliers d’un comportement de vente efficace.
• Les essentiels de la communication interpersonnelle liés à la vente. Pour quelles raisons les traducteurs et interprètes disposent d’un formidable atout pour vendre leurs services.
• Les cinq étapes clés d’un entretien de vente.
• Pourquoi et comment se préparer efficacement à un rendez-vous.
• Comment présenter son offre de traducteur ou d’interprète en sept minutes et donner une image claire, rassurante et séduisante.
• Sur quelle base démarrer la découverte des besoins du client ? Quelles sont les questions clés à poser ? Comment définir la problématique du client et construire les rails de la vente ?
• Comment construire une proposition commerciale pour vendre ses services de traducteur ou d’interprète ? Quelles en sont les grandes parties ? Quelles sont les erreurs à ne surtout pas commettre ? Comment valoriser le fond grâce à une forme adaptée ?
• Comment présenter son offre et augmenter ses chances de succès.
• Argumenter de façon pertinente et percutante.
• Comment rédiger un argumentaire.
• Le traitement des objections.
• Les solutions possibles pour défendre ses prix et ses marges.
• Les différentes techniques pour conclure une vente.
• L’entretien de bilan : la première pierre pour construire la fidélisation.

Publicité
10 décembre 2011

Le traitement multilingue de la parole et du langage (RTO MP-066 / IST-025)

L'importance des technologies du traitement multilingue de la parole et du langage est de plus en plus reconnue par les organisations internationales civiles et militaires. Il se pourrait, par exemple, qu'un codeur vocal optimisé pour le français soit demandé en Allemagne ou en Turquie. De la même façon, un hispanophone pourrait avoir besoin d'un système de reconnaissance de la parole conçu pour de l'anglais américain. En outre, avec le foisonnement de textes multilingues affichés sur l'Internet, un
utilisateur britannique peut souhaiter consulter des documents en néerlandais en se servant de termes de recherche en anglais. Pour de telles raisons, un groupe de travail de l'Organisation pour la recherche et la technologie de l'OTAN (RTO) a lancé un projet sur le développement et l'évaluation d'applications multilingues de traitement de la parole et du langage.


Dans le but de promouvoir des interactions entre personnels civils et militaires chargés de la recherche et du développement, le groupe d'étude OTAN pour la recherche IST-011/RTG-001 sur les technologies de la parole et du langage a organisé, en coopération avec l'Association internationale de la communication verbale (ISCA), un atelier, à Aalborg, au Danemark, le 8 septembre 2001. Quarante huit chercheurs de 16 pays différents y ont participé.


L'atelier a eu pour objectif d'examiner les aspects scientifiques et techniques du traitement de la parole et du langage du point de vue du multilinguisme, des dialectes, de l'expression non autochtone et/ou des accents régionaux. La présentation d'une nouvelle base de données de la parole autochtone et non autochtone constituée par le groupe d'étude OTAN pour la recherche et la discussion qui en a suivi a été l'un des moments forts de la manifestation. Cette base de données, appelée Corpus OTAN
de la parole autochtone et non autochtone (N4), sera mise à la disposition de chercheurs aux fins d'études ultérieures.

 

10 décembre 2011

Multilingual Speech Processing Tanja Schultz

9780120885015

Edited by
Tanja Schultz, Professor, Carnegie Mellon University, Pittsburgh, PA, USA
Katrin Kirchhoff, Professor, University of Washington, Seattle, WA, USA

Description
Tanja Schultz and Katrin Kirchhoff have compiled a comprehensive overview of speech processing from a multilingual perspective. By taking this all-inclusive approach to speech processing, the editors have included theories, algorithms, and techniques that are required to support spoken input and output in a large variety of languages. This book presents a comprehensive introduction to research problems and solutions, both from a theoretical as well as a practical perspective, and highlights technology that incorporates the increasing necessity for multilingual applications in our global community. Current challenges of speech processing and the feasibility of sharing data and system components across different languages guide contributors in their discussions of trends, prognoses and open research issues. This includes automatic speech recognition and speech synthesis, but also speech-to-speech translation, dialog systems, automatic language identification, and handling non-native speech. The book is complemented by an overview of multilingual resources, important research trends, and actual speech processing systems that are being deployed in multilingual human-human and human-machine interfaces. Researchers and developers in industry and academia with different backgrounds but a common interest in multilingual speech processing will find an excellent overview of research problems and solutions detailed from theoretical and practical perspectives.

Audience:
Researchers & government employees in industry, consultants in speech/signal processing, undergraduate and graduate students

Edité par
Tanja Schultz, professeur, Université de Carnegie Mellon, Pittsburgh, PA, Etats-Unis
Katrin Kirchhoff, Professeur, Université de Washington, Seattle, WA, Etats-Unis

description de
Tanja Schultz et Katrin Kirchhoff ont compilé un aperçu complet de traitement de la parole dans une perspective multilingue. En prenant cette approche inclusive au traitement de la parole, les rédacteurs ont inclus des théories, des algorithmes et des techniques qui sont nécessaires pour appuyer l'entrée parlée et de sortie dans une grande variété de langues. Ce livre présente une introduction complète aux problèmes de recherche et des solutions, tant sur ​​le plan théorique ainsi que d'un point de vue pratique, et la technologie qui incorpore souligne la nécessité croissante pour les applications multilingues dans notre communauté mondiale. Les défis actuels du traitement de la parole et la possibilité de partage des données et les composants du système à travers différentes langues contributeurs guider dans leurs discussions sur les tendances, pronostics et les questions de recherche ouvert. Cela inclut la reconnaissance automatique de la parole et la synthèse vocale, mais aussi le discours-parole de traduction, les systèmes de dialogue, de l'identification automatique des langues, et de manutention non indigènes de la parole. Le livre est complété par un aperçu des ressources multilingues, les tendances de recherche important, et les systèmes de traitement réelle discours qui sont déployés dans plusieurs langues interfaces homme-homme et homme-machine. Les chercheurs et les développeurs dans l'industrie et les milieux universitaires d'horizons différents, mais un intérêt commun dans le traitement de la parole multilingue trouverez un excellent aperçu des problèmes de recherche et des solutions détaillées à partir de perspectives théoriques et pratiques.

Audience:
Chercheurs et des employés du gouvernement dans l'industrie, des consultants dans le discours / traitement du signal, de premier cycle et des étudiants diplômés

 

10 décembre 2011

Depuis une vingtaine d'années, les études sur les

befff6628dd05ebe

Depuis une vingtaine d'années, les études sur les corpus de langues parlées ont complètement renouvelé les sciences du langage. Les toutes nouvelles technologies en matière de stockage, de diffusion mais aussi d'exploitation des enregistrements sonores, couplées aux outils de traitement automatique du langage (transcriptions synchronisées sur le signal, annotations, etc.) ouvrent des perspectives prometteuses. Toutefois cette situation ne va pas sans poser de nombreuses questions juridiques et éthiques mais aussi techniques, méthodologiques et théoriques. Ce sont les réponses à ces questions que souhaite présenter ce Guide des bonnes pratiques.

Rédigé par un groupe de travail constitué de linguistes, juristes, informaticiens et conservateurs, cet ouvrage a pour vocation d'éclairer la démarche des chercheurs, de repérer les problèmes et les solutions juridiques et de favoriser l'émergence de pratiques communes pour la constitution, l'exploitation, la conservation et la diffusion des corpus oraux.

Extrait du livre:
Préface de Bernard Meunier, Président du CNRS :

L'oral et l'écrit. Ces deux mots possèdent une force évocatrice puissante. Nous pensons à la manière dont les civilisations se sont structurées par les pratiques orales et ensuite par la création d'écritures permettant de mieux transmettre dans l'espace et dans le temps les paroles des uns et des autres.

Mon regard de chercheur sur le rôle respectif de l'oral et de l'écrit dans la diffusion des connaissances scientifiques ne me fait pas oublier que, bien au-delà du rôle primordial de l'écrit, la présentation orale devant ses pairs, ou un large public, est toujours essentielle pour diffuser, convaincre, faire partager des idées. L'oral garde une force de conviction, permettant d'atteindre le plus grand nombre dès lors qu'il peut être enregistré et transmis à l'aide des moyens audiovisuels actuels.

La collecte et l'utilisation des corpus oraux doivent se faire selon le respect de «bonnes pratiques», comme cela se fait pour celles des corpus écrits. Nous savons tous combien une phrase, sortie de son contexte et diffusée sans retenue, peut devenir dangereuse pour son auteur, un groupe de personnes ou une communauté.

Les auteurs de ce remarquable travail ont abordé en profondeur tous les aspects juridiques de la collecte et de l'usage des corpus écrits. Je souhaite que cet ouvrage bénéficie de la meilleure diffusion auprès des acteurs et des utilisateurs des corpus oraux que nous sommes tous, à un moment ou à un autre.

9782271064257

10 décembre 2011

Corpus oral

En linguistique, un corpus oral est un corpus constitué de transcriptions de données orales.


Bibliographie

    Olivier Baude, Corpus oraux. Guide des bonnes pratiques, Paris, CNRS, 2006
    Douglas Biber, Variation across speech and writing, Cambridge, Cambridge University press, 1991
    Claire Blanche-Benveniste et alii., Le français parlé. Etudes grammaticales., Paris, CNRS, 1990
    Claire Blanche-Benveniste, Approches de la langue parlée en français, Paris, Ophrys, 1997
    Revue française de linguistique appliquée, vol IV-1, Grands corpus : Diversité des objectifs, variété des approches, 1999

Liens

 

Publicité
10 décembre 2011

Speech Processing Glossary

 Source http://www.vocapia.com

  • Acoustic model A model describing the probabilistic behavior of the encoding of the linguistic information in a speech signal. LVCSR systems use acoustic units corresponding to phones or phones in context. The most predominant approach uses continuous density hidden Markov models (HMM) to represent context dependent phones.
  • Acoustic parametrization (or acoustic front-end) see Speech Analysis
  • ASR Accuracy The speech recognition accuracy is defined as the 1-WER.
  • Automatic Language Recognition Process by which a computer identify the language being spoken in a speech signal.
  • Automatic Speaker Recognition Process by which a computer identify the speaker from a speech signal.
  • Automatic Speech Recognition (ASR) Process by which a computer convert a speech signal into a sequence of words.
  • Backoff Mechanism for smoothing the estimates of the probabilities of rare events by relying on less specific models (acoustic or language models)
  • CDHMM Continuous Density HMM (usually based on Gaussian mixtures)
  • Filler word Words like uhm, euh, ...
  • FIR filter A Finite Impulse Response (FIR) filter produces an output that is the weighted sum of the current and past inputs.
  • Frame An acoustic feature vector (usually MFCC) estimated on a 20-30ms signal window (see also Speech Analysis).
  • Frame Rate Number of frames per second (typically 100).
  • GMM Gaussian Mixture Model (i.e. a 1-state CDHMM)
  • HMM Hidden Markov Models (or Probabilistic functions of Markov chains)
  • HMM state Usually an GMM. An HMM contains one or more states, typically 3 states for a phone model.
  • IIR filter An Infinite Impulse Response (IIR) filter produces an output that is the weighted sum of the current and past inputs, and past outputs.
  • Language model A language model captures the regularities in the spoken language and is used by the speech recognizer to estimate the probability of word sequences. One of the most popular method is the so called n-gram model, which attempts to capture the syntactic and semantic constraints of the language by estimating the frequencies of sequences of n words.
  • Lattice A word lattice is a weighted acyclic graph where word labels are either assigned to the graphs edges (or links) or to the graph vertices (or nodes). Acoustic and language model weights are associated to each edge, and a time position is associated to each vertex
  • Lexicon or pronunciation dictionary A word list with pronunciations
  • LVCSR Large Vocabulary Speech Recognition (large vocabulary means 10k words or more). The size of the recognizer vocabulary affects the processing requirements.
  • MAP estimation (Maximum A Posteriori) A training procedure that attempts to maximize the posterior probability of the model parameters (which are therefore seen as random variables) Pr(M|X,W) (X is the speech signal, W is the word transcription, and M represents the model parameters).
  • MAP decoding A decoding procedure (speech recognition) which attempts to maximize the posterior probability Pr(W|X,M) of the word transcription given the speech signal X and the model M.
  • MLE (Maximum Likelihood Estimation) A training procedure (the estimation of the model parameters) that attempts to maximize the training data likelihood given the model f(X|W,M) (X is the speech signal, W is the word transcription, and M is the model).
  • MMIE (Maximum Mutual Information Estimation) A discriminative training procedure that attempts to maximize the posterior probability of the word transcription Pr(W|X,M) (X is the speech signal, W is the word transcription, and M is the model). This training procedure is also called Conditional Maximum Likelihood Estimation.
  • MFCC Mel Frequency Cepstrum Coefficients. The Mel scale approximates the sensitivity of the human ear. Note that there are many other frequency scales "approximating" the human ear (e.g. the Bark scale).
  • MF-PLP PLP coefficients obtained from a Mel frequency power spectrum (see also MFCC and PLP).
  • MLP Multi-Layer Perceptron is a class of artificial neural network. It is a feedforward network mapping some input data to some desired output representation. It is composed of three or more layers with nonlinear activation functions (usually sigmoids).
  • N-Gram Probabilistic language model based on an N-1 order Markov chain
  • N-best Top N hypotheses
  • OOV word Out Of Vocabulary word -- Each OOV word causes more than one recognition error (usually between 1.5 and 2 errors). An obvious way to reduce the error rate due to OOVs is to increase the size of the vocabulary.
  • %OOV Out Of Vocabulary word rate.
  • Perplexity The relevance of a language model is often measured in terms of test set perplexity defined as pow(Prob(text|language-model),-1/n), where is n is the number of words in the test text. The test perplexity depends on both the language being modeled and the model. It gives a combined estimate of how good the model is and how complex the language is.
  • Phone Symbols used to represent the pronunciations in the lexicon
  • Pitch or F0 The pitch is the fundamental frequency of a (periodic or nearly periodic) speech signal. In practice, the pitch period can be obtained from the position of the maximum of the autocorrelation function of the signal. See also degree of voicing, periodicity and harmonicity. (In psychoacoustics the pitch is a subjective auditory attribute)
  • PLP analysis Perceptual Linear Prediction: Compute perceptual power spectral density (Bark scale), perform equal loudness preemphasis and take the cube root of the intensity (intensity-loundness power law), apply the IDFT to get the equivalent of the autocorrelation function, fit a LP model and transform into cepstral coefficients (LPCC analysis).
  • Quinphone (or pentaphone) Phone in context where the context includes the 2 left phones and the 2 right phones
  • Recording channel Means by which the audio signal is recorded (direct microphone, telephone, radio, etc.)
  • Sampling Rate Number of samples per second used to code the speech signal (usually 16000, i.e. 16 kHz for a bandwidth of 8 kHz). Telephone speech is sampled at 8 kHz. 16 kHz is generally regarded as sufficient for speech recognition and synthesis. The audio standards use sample rates of 44.1 kHz (Compact Disc) and 48 kHz (Digital Audio Tape). Note that signals must be filtered prior to sampling, and the maximum frequency that can be represented is half the sampling frequency. In practice a higher sample rate is used to allow for non-ideal filters.
  • Sampling Resolution Number of bits used to code each signal sample. Speech is normally stored in 16 bits. Telephony quality speech is sampled at 8 kHz with a 12 bit dynamic range (stored in 8 bits with a non-linear function, i.e. A-law or U-law). The dynamic range of the ear is about 20 bits.
  • Spectrogram A spectrogram is a plot of the short-term power of the signal in different frequency bands as a function of time.
  • Speech Analysis Feature vector extraction from a windowed signal (20-30ms). It is assumed that speech has short time stationarity and that a feature vector representation captures the needed information (depending of the task) for future processing. The most popular set of features are cepstrum coefficients obtained with a Mel Frequency Cepstral (MFC) analysis or with a Perceptual Linear Prediction (PLP) analysis.
  • Speech-to-Text Conversion A synonym of Automatic Speech Recognition.
  • Speaker diarization Speaker diarization, also called speaker segmentation and clustering, is the process of partitioning an input audio stream into homogeneous segments according to speaker identity. Speaker partitioning is a useful preprocessing step for an automatic speech transcription system. By clustering segments from the same speaker, the amount of data available for unsupervised speaker adaptation is increased, which can significantly improve the transcription performance. One of the major issues is that the number of speakers is unknown a priori and needs to be automatically determined.
  • Triphone (or Phone in context) A context-dependent HMM phone model (the context usually includes the left and right phones)
  • Voicing The degree of voicing is a measure of the degree to which a signal is periodic (also called periodicity, harmonicity or HNR). In practice, the degree of periodicity can be obtained from the relative height of the maximum of the autocorrelation function of the signal.
  • Word Accuracy The word accuracy (WAcc) is a metric used to evaluate speech recognizers. The percent word acccuracy is defined af %WAcc = 100 - %WER. It should be noted that the word accuracy can be negative. The Word Error Rate (WER, see below) is a more commonly used metric and should be prefered to the word accuracy.
  • Word Error Rate The word error rate (WER) is the commonly used metric to evaluate speech recognizers. It is a measure of the average number of word errors taking into account three error types: substitution (the reference word is replaced by another word), insertion (a word is hypothesized that was not in the reference) and deletion (a word in the reference transcription is missed). The word error rate is defined as the sum of these errors divided by the number of reference words. Given this definition the percent word error can be more than 100%. The WER is somewhat proportional to the correction cost.
10 décembre 2011

Les langues les plus parlées dans leur pays d'origine selon Ethnologue.com

10 décembre 2011

Langues et ressources informatiques

Exemples

Il existe actuellement des bases de données documentaires qui contiennent un grand nombre d'informations, dans une ou plusieurs langues :

    l'UNESCO dispose de bases de données documentaires qui permettent de gérer le patrimoine mondial (d'où la notion de Patrimoine culturel immatériel) ;
    l'OCDE dispose également d'une des bases de données documentaires les plus importantes, qui permet de gérer, notamment, les questions de pressions sur l'environnement dues aux activités humaines (voir pression-état-réponse, modèle PER) ;
    les États gèrent également des informations publiques. Dans l'Union européenne, la mise à disposition de ces informations fait l'objet de la directive 2003/98/CE.

Langue primaire et langue de traitement

Généralement, l'information source est disponible dans une seule langue. Les traitements sont donc effectués dans cette langue, appelée langue de traitement.

La langue correspondant aux besoins à satisfaire est appelée langue primaire.

Il est donc nécessaire de pouvoir convertir une langue dans les autres et réciproquement, en fonction des besoins des utilisateurs, des règles métier, et de la langue de la source.

Il est également nécessaire de disposer d'un cadre de description des ressources informatiques, qui permette d'effectuer une transposition fidèle au sens des textes. Il est évident que la sémantique joue un rôle très important. La gestion des langues sera faite utilement dans le cadre du Web sémantique. L'OASIS a défini un cadre qui s'appelle Resource Description Framework (RDF).

Les systèmes de gestion de contenu et les systèmes de gestion électronique de documents doivent disposer d'interfaces intelligentes leur permettant d'interopérer avec la ou les sources, et d'effectuer si nécessaire une traduction (associée à une remise en forme) pour les besoins de l'usager final.

10 décembre 2011

Évolutions : disparitions et créations

Disparition des langues

La linguiste Colette Grinevald estime qu'environ 50% des langues disparaîtront d'ici 2100. Dans certaines régions, cela pourrait être de l'ordre de 90% (comme en Australie et en Amérique) 3. Début 2008, l'ONG Survival International estime qu'une langue indigène disparaît « toutes les deux semaines » .

Colette Grinevald estime qu'en 2100, les langues majoritaires seront3 :

    l'anglais, comme langue pour le commerce et les échanges scientifiques notamment.
    l'espagnol, en Amérique Latine (et au sud des États-Unis).
    le portugais, en Amérique du Sud, et en Afrique.
    l'arabe, dans le monde arabe
    le mandarin et l'hindi, en Asie.
    le swahili et le wolof, en Afrique.

Le français est utilisé comme langue de la diplomatie internationale, des « Pays Non-Alignés », des organisations internationales, des jeux olympiques. La Francophonie devrait donc bien se porter, notamment à travers son développement au sein de la communauté des pays francophones et son expansion en Afrique et au Maghreb et le concours du dynamisme linguistique des francophones canadiens, belges et suisses. Ainsi selon le démographe et sociologue Richard Marcoux le français pourrait en 2050 compter 600 millions de locuteurs.

Une langue est considérée comme menacée si elle risque de ne plus avoir de locuteurs d'ici la fin du XXIe siècle. Une langue qui paraît solide, car utilisée par plusieurs millions de personnes, peut être en danger. C'est notamment le cas des langues quechua en Amérique du Sud, car très peu de jeunes les apprennent.

Depuis que la majorité de l'humanité vit dans des milieux urbains, cette disparition s'accélère. Une des causes est l'exode rural, qui conduit à l'absence de transmission des traditions et des langues associées. Souvent, la pression sociale fait que les locuteurs de langues minoritaires (comme les Amérindiens mais aussi de nombre de langues dites régionales, comme en France avec les Bretons durant les années 1950 ou la langue corse, déclarée « en danger » par l'Unesco en 2009) considèrent que parler une langue traditionnelle est un handicap pour l'intégration dans la société et pour trouver du travail. La pression exercée par certains États, qui considèrent que la langue est un des ciments de la société, est également un facteur de disparition de la diversité linguistique.

La disparition de ces langues entraîne avec elle la disparition de pans entiers de la culture traditionnelle de certains groupes. La disparition d'une langue traditionnelle et le mauvais apprentissage de la langue dominante occasionnent un malaise chez certaines personnes, par manque d'intégration, celles-ci ne pouvant se reconnaître dans aucune culture.

L'Internet joue un rôle ambivalent, il est d'un côté un accélérateur de la disparition des langues, par l'uniformisation des moyens de communications. Mais il est aussi un moyen de préserver ces langues, par l'établissement de communautés parlant des langues traditionnelles.


Création de langues

Certaines langues disparaissent mais il arrive aussi que des langues soient créées, en général cela se produit suivant trois axes :

    des personnes de langues différentes sont en contact (cas des créoles)
    un peuple par souci d'identité nationale crée sa langue (swahili, indonésien, hébreu moderne, norvégien, katharévousa)
    pour faciliter la communication internationale (espéranto)

Il existe également un cas plus marginal avec ce que l'on appelle les langues de fiction (schtroumpf, novlangue, kobaien, quenya, sindarin ou encore klingon, Na'vi). Cette dernière catégorie tient plus du plaisir ludique et littéraire que de la véritable fonctionnalité linguistique (bien que les langues créées dans cette catégorie puissent être fonctionnelles).
Droit

Les langues peuvent avoir différents statuts dans les organisations internationales, particulièrement, la langue officielle et la langue de travail.


Langues et informatique

Sur la Toile, la langue est gérée dans les langages de balisage qui manipulent du texte en langage naturel dans des documents .

Il existe de nombreux besoins, de nombreuses dispositions juridiques, de nombreuses pratiques qui demandent de gérer la langue d'une certaine manière :

    les dispositions de politique linguistique (en France, la loi sur l'usage de la langue française par exemple) ;
    la politique linguistique de l'Union européenne, pour la diffusion des directives européennes et des règlements ;
    l'optimisation des moteurs de recherche ;
    les bonnes pratiques qualité ;
    les conseils pour l'internationalisation.

Il existe deux usages de la langue dans les langages HTML et XML :

    la langue primaire ;
    la langue de traitement.

L'arrivée des nouvelles technologies comme l'informatique, Internet et les téléphones cellulaires avec messages textos ont mené à la création d'une nouvelle façon d'écrire les langues, le langage SMS.

10 décembre 2011

Les familles de langues

Les_familles_de_langues

Publicité
1 2 3 4 5 6 7 8 9 10 > >>
Premiers pas virtuels ves le Traitement automatique de la parole en Alsace
Publicité
Publicité