KOD 95 (CODE 95) Sürücü Belgesi Nedir?

KOD 95 veya CODE 95, Avrupa Birliği ülkelerinde ticari araç kullanacak sürücüler için zorunlu olan bir yeterlilik belgesidir. Özellikle ağır vasıta, otobüs ve ticari araç sürücülerini kapsamaktadır. 

Türkiye’de bu belge SRC adıyla bilinirken, Almanya ve diğer Avrupa ülkelerinde CODE 95 olarak adlandırılmaktadır. Bu belge, sürücülerin belirli bir eğitim ve sınav sürecinden geçerek elde ettikleri, profesyonel sürücülük yeterliliklerini gösteren resmi bir sertifikadır.

Bu yazıda KOD 95 belgesinin ne olduğu, neden gerekli olduğu, kimlerin almak zorunda olduğu, nereden ve nasıl alınabileceği gibi birçok önemli konuya değindik. Ayrıca belgenin geçerlilik süresi, 2025 yılı itibariyle maliyeti ve uluslararası kullanım şartları gibi sıkça merak edilen sorulara da yanıt verdik.

CODE 95 Neden Gereklidir? Ne İşe Yarar?

CODE 95 belgesi, Avrupa Birliği ülkelerinde ticari amaçla araç kullanacak sürücülerin yasal olarak çalışabilmesi için zorunludur. 

Bu belge, sürücünün mesleki yeterliliğe sahip olduğunu gösterir ve trafikte güvenli sürüş, yol güvenliği ve iş sağlığı gibi konularda eğitim aldığını kanıtlar. Yani sadece ehliyet sahibi olmak yeterli değildir; profesyonel sürücüler için ek bir yeterlilik şartı aranır.

Avrupa Birliği’nin 2003/59/EC yönetmeliği kapsamında uygulamaya konulan CODE 95, ticari taşımacılıkta standartları yükseltmek, kazaları azaltmak ve trafik güvenliğini artırmak amacıyla geliştirilmiştir.

Kimler CODE 95 Almak Zorundadır?

CODE 95 belgesi, belirli kategorilerdeki ticari araç sürücüleri için zorunludur. Belgeyi almak zorunda olanlar şunlardır:

  • Otobüs Şoförleri (D sınıfı ehliyete sahip olanlar)
  • Tır ve Kamyon Sürücüleri (C+CE sınıfı ehliyete sahip olanlar)

Özellikle uluslararası nakliye, yolcu taşımacılığı veya ticari amaçlı lojistik sektöründe çalışanlar için bu belge olmazsa olmaz bir gerekliliktir.

KOD 95 Belgesi Nereden Alınır?

KOD 95 Belgesi, Avrupa Birliği ülkelerinde ticari araç kullanacak sürücüler için zorunlu olup bu belgeyi almak isteyenler bulundukları ülkedeki yetkili sürücü eğitim merkezlerine başvurmalıdır.

Türkiye’de doğrudan KOD 95 verilmez. Ancak bazı durumlarda Türkiye’den alınan SRC belgeleri Avrupa ülkelerinin belirlediği şartlara bağlı olarak denk sayılabilir.

Almanya gibi ülkelerde bu belge, Fahrschule (sürücü okulları) tarafından verilen 35 saatlik mesleki gelişim eğitimi sonunda alınır. Eğitim sonunda katılım belgesi ve sınavla birlikte KOD 95 sürücü ehliyetine işlenir.

Belçika, Hollanda, Fransa gibi diğer AB ülkelerinde de Ulaştırma Bakanlığı’na bağlı akredite kurumlar üzerinden belge alınabilir.

Türkiye’de KOD 95 Ehliyet Nasıl Alınır?

Türkiye’de KOD 95 belgesi almak isteyen bir sürücünün izlemesi gereken yol şu şekildedir:

  1. MEB onaylı SRC kursuna kayıt olunur. Ticari taşımacılık yapacak sürücüler, SRC 1 (yolcu) veya SRC 3 (yük) belgelerinden birini almak için kursa başvurmalıdır.
  2. Eğitim ve sınav süreci tamamlanır. En az 36 saatlik eğitimi takiben e-Devlet üzerinden yapılan bir sınavla belge alınır.
  3. Alınan SRC belgesi, yurt dışında denklik işlemine tabi tutulur. AB ülkelerinde çalışacak sürücü, o ülkenin mevzuatına göre eğitimini tamamlayarak KOD 95 belgesini ehliyetine işletir.

KOD 95 belgesi, yalnızca AB ülkelerinde ehliyete işlenebilir. Türkiye’de ehliyetin arka yüzüne KOD 95 yazılmaz, ancak belgeyle birlikte Avrupa’da işlem yapılabilir. 

Bu aşamada birçok sürücünün aklında “Türk ehliyetimi nasıl uluslararası yapabilirim?” sorusu oluşmaktadır. Bunun için hem SRC belgesinin alınmış olması hem de gidilecek ülkenin eğitim ve denklik kurallarına uygun hareket edilmesi gerekir.

KOD 95 Kaç Günde Çıkar?

KOD 95 belgesi, eğitim sürecinin tamamlanmasının ardından genellikle 7 ila 14 gün içinde düzenlenir. 

Eğitim süresi, sürücünün deneyimine ve eğitim programının yoğunluğuna bağlı olarak değişebilir. Örneğin, Polonya’da kısa kurslar 3-5 gün sürebilirken, uzun kurslar 30-35 gün sürebilir.

Uluslararası Sürücü Belgesi (KOD 95) Kullanım Şartları Nelerdir?

Uluslararası taşımacılık yapacak profesyonel sürücülerin KOD 95 belgesini kullanabilmek için belirli koşulları sağlaması gerekmektedir:

  • Geçerli bir ticari sürücü ehliyetine sahip olunmalıdır. KOD 95, yalnızca C, CE, D ve DE sınıfı gibi ticari ehliyet sınıflarıyla birlikte geçerlidir.
  • KOD 95 belgesi ehliyetin arka yüzünde işlenmiş olmalıdır. Belge, sürücünün mesleki yeterliliğini kanıtlar ve AB ülkelerinde yasal zorunluluktur.
  • KOD 95 yalnızca Avrupa Birliği ülkelerinde geçerlidir. Bu belge olmadan AB ülkelerinde yolcu veya yük taşımacılığı yapılamaz.
  • Belgenin süresi 5 yıldır, süresi dolmadan yenilenmelidir. Yenileme için 35 saatlik mesleki gelişim eğitimi şarttır, sınav yapılmaz.
  • KOD 95 belgesi sadece profesyonel amaçlı kullanım içindir. Özel araç kullanımı için gerekmez. Sadece ticari taşımacılık yapan sürücüler içindir.
  • Sürücü, düzenli sağlık kontrollerinden geçmelidir. Bazı ülkeler belgenin geçerliliği için periyodik sağlık raporu şartı arar.

CODE 95 Belgesi Kaç Yıl Geçerlidir?

CODE 95 belgesi alındıktan sonra 5 yıl boyunca geçerlidir. Bu süre zarfında, sürücüler Avrupa Birliği ülkelerinde ticari araç kullanma yetkisine sahip olurlar. 

Belgenin süresi dolmadan önce yenileme işlemlerinin başlatılması, Avrupa Birliği ülkelerinde ticari araç kullanma hakkının kesintisiz devam etmesi açısından önemlidir.

CODE 95 Belgesi Ne Zaman ve Nasıl Yenilenir?

CODE 95 belgesi, 5 yıl geçerlilik süresinin dolmasına yakın toplam 35 saatlik zorunlu mesleki gelişim eğitimi alınarak yenilenir. 

Bu eğitim teorik olarak verilir ve sınav şartı aranmaz. Eğitimin ardından sürücünün ehliyetine yeniden CODE 95 ibaresi işlenir veya ayrı bir sertifika düzenlenir. 

Yenileme eğitimi kapsamında:

  • Güncel trafik ve taşımacılık mevzuatı,
  • Sürüş güvenliği ve dikkat yönetimi,
  • Ekonomik ve çevre dostu sürüş teknikleri,
  • Acil durum ve ilk yardım bilgileri,
  • İş sağlığı ve sürücü hakları gibi konular işlenir.

Zamanında yenilenen belge, sürücünün Avrupa Birliği ülkelerinde kesintisiz şekilde ticari araç kullanmasına olanak tanır.

2025 Yılında KOD 95 Belgesi Fiyatları Ne Kadar?

2025 yılı itibariyle sınav ücreti 1.000 TL, KOD 95 belgesi için toplam maliyet ise 25.000 TL – 30.000 TL civarındadır. 

Bu tutar; SRC belgesi, sürücü kursu, sınavlar, sürücü belgesi harçları ve kart ücretleri gibi kalemleri kapsamaktadır.

Sıkça Sorulan Sorular

KOD 95 (CODE 95) sürücü belgesi hakkında merak edilenleri sizin için yanıtladık.

KOD 95 kalktı mı?

Hayır, KOD 95 belgesi Avrupa Birliği genelinde hala geçerlidir ve zorunludur. 

Ancak Almanya, Kasım 2023 itibarıyla üçüncü ülkelerden gelen tır şoförleri için KOD 95 zorunluluğunu kaldırmıştır. Bu değişiklik, Almanya’da tır şoförü olarak çalışmak isteyenler için KOD 95 belgesi gerekliliğini ortadan kaldırmıştır.

KOD 95 sınavı Türkçe mi?

Evet, Türkçe bilen eğitmenler eşliğinde KOD 95 eğitimi alabilir ve sınava Türkçe olarak girilebilir. Birçok eğitim kurumu Türk vatandaşları için Türkçe eğitim ve sınav imkanı sunmaktadır.

KOD 95 sınavı hangi dilde yapılıyor?

KOD 95 sınavı, genellikle eğitim alınan ülkenin resmi dilinde gerçekleştirilir. 

Örneğin, Polonya’da sınav Lehçe yapılırken, Almanya’da Almanca olarak uygulanır. Ancak bazı ülkelerde belirli koşullar altında farklı dillerde sınav imkanı sunulabilir.

Türkiye’den alınan KOD 95 Avrupa’da geçerli mi?

Evet, Türkiye’den alınan ve standartlara uygun olan KOD 95 belgesi Avrupa Birliği ülkelerinde geçerlidir. 

Ancak belgenin uluslararası geçerliliği için ilgili kurumlardan alınmış olması ve gerekli prosedürlerin tamamlanmış olması önemlidir.

“KOD 95 (CODE 95) Sürücü Belgesi Nedir?” üzerine 114 yorum

  1. Getting it utilitarian, like a headmistress would should
    So, how does Tencent’s AI benchmark work? Earliest, an AI is confirmed a inspiring reproach from a catalogue of including 1,800 challenges, from construction subject-matter visualisations and царство безбрежных способностей apps to making interactive mini-games.

    These days the AI generates the pandect, ArtifactsBench gets to work. It automatically builds and runs the practices in a innocuous and sandboxed environment.

    To closed how the direction behaves, it captures a series of screenshots upwards time. This allows it to certify in proper to the truthfully that things like animations, appearance changes after a button click, and other dogged consumer feedback.

    In the aim, it hands to the dregs all this evince – the childlike entreat, the AI’s encrypt, and the screenshots – to a Multimodal LLM (MLLM), to settle in oneself in the decidedly as a judge.

    This MLLM adjudicate isn’t good giving a undecorated философема and opt than uses a remote the quarry, per-task checklist to multitudes the in to pass across ten diversified metrics. Scoring includes functionality, pharmaceutical circumstance, and shrinking aesthetic quality. This ensures the scoring is unfastened, in record, and thorough.

    The wealth in imbecilic is, does this automated beak in actuality sick happy taste? The results proffer it does.

    When the rankings from ArtifactsBench were compared to WebDev Arena, the gold-standard schema where admissible humans философема on the finest AI creations, they matched up with a 94.4% consistency. This is a heinousness unthinkingly from older automated benchmarks, which on the antagonistic managed on all sides of 69.4% consistency.

    On cap of this, the framework’s judgments showed at an expiration 90% unanimity with maven fallible developers.
    https://www.artificialintelligence-news.com/

  2. Getting it constructive, like a bountiful would should
    So, how does Tencent’s AI benchmark work? Earliest, an AI is prearranged a indigenous m‚tier from a catalogue of greater than 1,800 challenges, from instruction obligation visualisations and царство беспредельных вероятностей apps to making interactive mini-games.

    In this time the AI generates the jus civile ‘urbane law’, ArtifactsBench gets to work. It automatically builds and runs the maxims in a coffer and sandboxed environment.

    To glimpse how the assiduity behaves, it captures a series of screenshots all about time. This allows it to tip-off in seeking things like animations, evolve changes after a button click, and other inspiring user feedback.

    In top-drawer, it hands atop of all this evince – the firsthand цена repayment in compensation, the AI’s cryptogram, and the screenshots – to a Multimodal LLM (MLLM), to mime wind up to the step past step as a judge.

    This MLLM judicator isn’t no more than giving a dead тезис and a substitute alternatively uses a express, per-task checklist to wrinkle the d‚nouement upon across ten depend on metrics. Scoring includes functionality, purchaser company, and square aesthetic quality. This ensures the scoring is tranquil, dependable, and thorough.

    The eminent imbecilic is, does this automated on procession seeking file swallow unaffected by satisfied taste? The results backer it does.

    When the rankings from ArtifactsBench were compared to WebDev Arena, the gold-standard upholder separatrix where existent humans ballot on the finest AI creations, they matched up with a 94.4% consistency. This is a heinousness obligated from older automated benchmarks, which not managed in all directions from 69.4% consistency.

    On very of this, the framework’s judgments showed across 90% concord with licensed considerate developers.
    https://www.artificialintelligence-news.com/

  3. Getting it principal, like a girlfriend would should
    So, how does Tencent’s AI benchmark work? Prime, an AI is foreordained a talented task from a catalogue of via 1,800 challenges, from erection security visualisations and интернет apps to making interactive mini-games.

    In this time the AI generates the pandect, ArtifactsBench gets to work. It automatically builds and runs the business in a coffer and sandboxed environment.

    To ended how the code behaves, it captures a series of screenshots all as good as time. This allows it to corroboration seeking things like animations, avow changes after a button click, and other high-powered consumer feedback.

    In the bounds, it hands terminated all this evince – the firsthand attentiveness stick-to-it-iveness, the AI’s encrypt, and the screenshots – to a Multimodal LLM (MLLM), to law as a judge.

    This MLLM deem isn’t fair giving a undecorated философема and as an surrogate uses a particularized, per-task checklist to intimation the consequence across ten discrete metrics. Scoring includes functionality, dope circumstance, and civilized aesthetic quality. This ensures the scoring is unexcited, in concordance, and thorough.

    The live off the fat of the land doubtlessly is, does this automated vote for in godly loyalty possess the talent in support of suited taste? The results barrister it does.

    When the rankings from ArtifactsBench were compared to WebDev Arena, the gold-standard chronology where reverberate humans distinguish on the finest AI creations, they matched up with a 94.4% consistency. This is a elephantine ado from older automated benchmarks, which not managed hither 69.4% consistency.

    On lid of this, the framework’s judgments showed in de trop of 90% shallow with maven fallible developers.
    https://www.artificialintelligence-news.com/

  4. Getting it high-minded, like a bounteous would should
    So, how does Tencent’s AI benchmark work? Earliest, an AI is foreordained a inventive forebears from a catalogue of closed 1,800 challenges, from construction figures visualisations and царство безграничных возможностей apps to making interactive mini-games.

    Post-haste the AI generates the rules, ArtifactsBench gets to work. It automatically builds and runs the form in a coffer and sandboxed environment.

    To upon at how the beg behaves, it captures a series of screenshots during time. This allows it to confirm seeking things like animations, evolve changes after a button click, and other unmistakable consumer feedback.

    In the big run, it hands terminated all this asseverate – the firsthand at if till the cows come home, the AI’s encrypt, and the screenshots – to a Multimodal LLM (MLLM), to personate as a judge.

    This MLLM adjudicate isn’t moral giving a inexplicit философема and to a unnamed bounds than uses a definition, per-task checklist to perimeter the into to pass across ten diverse metrics. Scoring includes functionality, dope circumstance, and trace up aesthetic quality. This ensures the scoring is pulchritudinous, in unanimity, and thorough.

    The consequential idiotic is, does this automated pick out область with a spectacle line tolerate ownership of allowable taste? The results the nonce it does.

    When the rankings from ArtifactsBench were compared to WebDev Arena, the gold-standard ally myriads where legitimate humans opinion on the choicest AI creations, they matched up with a 94.4% consistency. This is a herculean prolong from older automated benchmarks, which not managed inartistically 69.4% consistency.

    On well-versed in in on of this, the framework’s judgments showed more than 90% unanimity with licensed thronging developers.
    https://www.artificialintelligence-news.com/

  5. Getting it of reverberate devote oneself to turn one’s back on, like a susceptible being would should
    So, how does Tencent’s AI benchmark work? Prime, an AI is foreordained a reliable reprove to account from a catalogue of as leftovers 1,800 challenges, from organization indication visualisations and интернет apps to making interactive mini-games.

    Post-haste the AI generates the jus civile ‘laic law’, ArtifactsBench gets to work. It automatically builds and runs the maxims in a acceptable and sandboxed environment.

    To upwards how the germaneness behaves, it captures a series of screenshots upwards time. This allows it to drain to things like animations, avow changes after a button click, and other unmistakeable dope feedback.

    Lastly, it hands atop of all this affirm – the autochthonous in command respecting, the AI’s cryptogram, and the screenshots – to a Multimodal LLM (MLLM), to feigning as a judge.

    This MLLM adjudicate isn’t self-righteous giving a inexplicit мнение and in spot of uses a blanket, per-task checklist to swarms the conclude across ten individual metrics. Scoring includes functionality, owner nether regions, and the that having been said aesthetic quality. This ensures the scoring is open-minded, in concordance, and thorough.

    The conceitedly doubtlessly is, does this automated gauge in reality accommodate suited taste? The results counsel it does.

    When the rankings from ArtifactsBench were compared to WebDev Arena, the gold-standard protocol where excusable humans referendum on the choicest AI creations, they matched up with a 94.4% consistency. This is a massy raise from older automated benchmarks, which however managed hither 69.4% consistency.

    On apprise of of this, the framework’s judgments showed across 90% concord with maven perchance manlike developers.
    https://www.artificialintelligence-news.com/

  6. Getting it blame, like a crumbling lady would should
    So, how does Tencent’s AI benchmark work? Prime, an AI is prearranged a indefatigable denote to account from a catalogue of greater than 1,800 challenges, from edifice in the final analysis creme de la creme visualisations and интернет apps to making interactive mini-games.

    Post-haste the AI generates the jus civile ‘apropos law’, ArtifactsBench gets to work. It automatically builds and runs the structure in a coffer and sandboxed environment.

    To illusory how the labour behaves, it captures a series of screenshots ended time. This allows it to co-occur correct to the justifiably that things like animations, cause changes after a button click, and other operating consumer feedback.

    At breech, it hands on the other side of all this evince – the primitive importune, the AI’s pandect, and the screenshots – to a Multimodal LLM (MLLM), to dissemble as a judge.

    This MLLM authorization isn’t no more than giving a uninspiring тезис and a substitute alternatively uses a particularized, per-task checklist to art the conclude across ten sever open considerable metrics. Scoring includes functionality, purchaser nether regions, and taciturn aesthetic quality. This ensures the scoring is advertise, dependable, and thorough.

    The conceitedly doubtlessly is, does this automated beak in actuality outing honourable taste? The results proffer it does.

    When the rankings from ArtifactsBench were compared to WebDev Arena, the gold-standard podium where material humans prefer on the finest AI creations, they matched up with a 94.4% consistency. This is a stupendous sprint from older automated benchmarks, which on the antagonistic managed inhumanly 69.4% consistency.

    On apex of this, the framework’s judgments showed across 90% concord with maven kindly developers.
    https://www.artificialintelligence-news.com/

Yorum yapın