IIIT-Synthetic-IndicSTR-Oriya

Language

Oriya

Modality

Scene Text

Details Description

The IIIT-Synthetic-IndicSTR-Oriya dataset consists of synthetically created 2M word images along with their corresponding annotations. To create synthetic images, freely available Unicode fonts are used to render synthetic word images. We use ImageMagick, Pango, and Cairo tools to render text onto images. To mimic the typical document images, we generate images whose background is always lighter (higher intensity) than the foreground. Each word is rendered as an image using a random font. Font size, font styling such as bold and italic, foreground and background intensities, kerning, and skew are varied for each image to generate a diverse set of samples. A random one-fourth of the images are smoothed using a Gaussian filter with a standard deviation (ЁЭЬО) of 0.5. Finally, all the images are resized to a height of 32 while keeping the original aspect ratio. This dataset is divided into Training, Validation, and Test Sets consisting of 1.5M, 0.5M, and 0.5M word images and their corresponding ground truth transcriptions. There are 1,49,612 Oriya words in the training set.

Training Set:

train.zip contains folder named тАЬimagesтАЭ with 1.5M word level images, тАЬtrain_gt.txtтАЭ containing image name and ground truth text separated by тАЬTab spaceтАЭ and тАЬvocabulary.txtтАЭ contains list of 1,49,612 words in the Training set.

Validation Set:

val.zip contains folder named тАЬimagesтАЭ with 0.5M word level images, and тАЬval_gt.txtтАЭ containing image name and ground truth text separated by тАЬTab spaceтАЭ.

Test Set:

test.zip contains folder named тАЬimagesтАЭ with 0.5M word level images, and тАЬtest_gt.txtтАЭ containing image name and ground truth text separated by тАЬTab spaceтАЭ.

Downloads

To download Train, Test or Val data, please Login

Login Sign Up

Sample Word Level Images from Training Set

Image Ground Truth
рмЖрморнНрммрм░рнЗ
рмЗрмерм┐рмУрмкрм┐рмЖ
рмкрм╣рмБрмЪрм┐рммрм╛рм░
рмкрм░рм┐рм╕рмЮрнНрмЪрм╛рм░рмгрм░рнЗ
рмжрморнНрмкрмдрм┐рмЩрнНрмХрм░
рмЫрнБрмЖрм░рнЗ
рмнрм░рм╛рм│рнЛ
рмЗрмирнНрмжрнНрм░рм┐рнЯрмВ
рмкрнЗрмЬ
рмПрм╕рнНрмПрмЬрм┐рн▒рм╛рмЗ
рмЧрм╛рмЗрм░рнЛрм╕рнНрмХрнЛрмк
рммрм┐рмзрнНрми
рммрм┐рм╢рнНрн▒рммрм╛рм╕рнАрмЩрнНрмХ
рмХрмЪрнЗрм░рнАрм░
рмзрм░рнНрмормкрм░рм╛рнЯрмгрм╛
рм╕рм╛рмЗрмЯрм░
рммрмбрм╝рм╕рм╛рм╣рм┐
рмкрнНрм░рммрмирнНрмзрм╛рммрм│рнА
рмкрнНрм░рмЧрмгрм╛
рм╢рнБрмирнНрнЯ
рмЖрмЙрмерм╛рм░рнЗ
рм▓рнБрмгрм░рнБ
рмирмЕрмЬрмгрм┐рмЖ
рмХрмгрнНрмЯрм┐рм▓рнЛ
рморм╛рмдрнГрмжрнЗрммрнАрмЩрнНрмХ
рморм╛рмкрмХрм░рм┐
рмирнЗрмкрмЪрнБрмирмЩрнНрмХ
рмкрм╛рмЯрнЗрмХрм░рмЩрнНрмХрм░
рмдрм▓рм╣рмЯрнАрм░рнЗ
рмЪрм╛рморнЗрм▓рм┐
рммрнЛрмЬрнЛрмирнН
рмпрмдрнНрми
рмЕрморм╛рмдрнНрнЯ
рмЖрморморм╛рмирмЩрнНрмХрм░
рмПрм╕рмХрнБрмЗрм░рнЛ
рмЖрмЗрморм╛
рнзрнпрмдрм╛рм░рм┐рмЦрм░рнЗ
рмЖрмпрм░рнЗ
рм╕рм╛рмЩрнНрмЧрмармирм┐рмХ
рм░рм╛рмзрм╛рмХрнГрм╖рнНрмгрмЩрнНрмХ
рмнрм╛рммрммрм┐рмирнНрмжрнБ
рмХрм╕рнНрморнЗрмЯрм┐рмХрнН
рм╕рнВрм░рнНрмпрнНрнЯрм╛рмВрм╢рнАрмЩрнНрмХрнБ
рмХрнЛрм╕рм│
рм╖рнНрмЯрнЗрмирнНрм╕рмЩрнНрмХ
рмдрмирнНрмдрнНрм░рнАрмХрм╛
рмХрнБрмгрнНрмбрм╛рмЪрмврнЗрмЗ
рмерм╛рмирнНрмдрм┐
рмЕрм╢рнНрм░рнБрм╕рм┐рмХрнНрмд
рмШрм┐рм░рм┐рмШрм┐рм░рм┐
рмЗрмирмлрнЛрм░рморнЗрм╕рмирнН
рм▓рм╕рм┐рмХрм╛
рмЬрм╛рмнрм┐рмЖрм░рнНрм╖
рмпрм╛рмдрнНрм░рммрнЗрм│рнЗ
рммрнНрнЯрммрм╕рм╛рнЯрм┐рмХ
рммрм╛рмШрмЯрм┐рмП
рм╣рм▓рм╣рм▓
рмЕрнЯрм╕рм░рнЗ
рмЯрм╛рмгрм┐рмирм┐рмП
рм╕рнБрморнЗрм░рм┐рнЯрм╛рмИ
рм╢рнБрмЦрм┐рмпрм┐рммрм╛
рммрмирнНрнЯрм╛рмЬрм│
рм╕рморнНрн▒рм┐рмд
рмкрмжрммрнА
рм╕рнЛрм╣рм╛
рмжрм╛рмирнНрмдрм░
рмирнЗрмЗрмирм╛рм╣рм╛рмирнНрмдрм┐
рм╕рнНрмерм│рм░
рмкрм░рм┐рм╕рнНрм░рм╛рмирм│рнА
рм╕рнЗрмЙ
рнирнпрнирнйрнж
рмХрмгрнНрмврнЗрмЗрмЧрнБрмбрм┐рмХрнБ
рмЕрм░рнНрмжрнНрмзрмЪрмирнНрмжрнНрм░рм╛рмХрм╛рм░
рм╢рмЙрм░рнБрмгрнА
рмкрнБрм░рнБрм╖рмкрмХрнНрм╖рнАрмХрнБ
рмУрм╕рнНрмХрм╛рм░рнН
рм╕рнБрм╕рнНрморм┐рмдрм╛рмЩрнНрмХрм░
рнирнирмЯрм┐
рмЧрнБрм░рнБрммрм╛рмжрнА
рмЖрм░рмПрм╕рмПрм╕рм░
рм░рнЗрмбрм┐рмУрм▓рнЛрмЬрм┐рмХрм╛рм▓рм┐
рмЖрм▓рнЗрнЯрм╛
рм╣рм╛рмЬрм░рм╛рмЩрнНрмХ
рм╢рм░рмгрмХрнВрм│рм░
рммрнБрмбрмкрмХрм╛рмЗ
рммрнНрнЯрммрм╕рнНрмерм╛рмкрм┐рмХ
рмПрмХрнНрм╕рмкрнНрм▓рнЛрм░
рмЖрмирнБрм╕рмЩрнНрмЧрм┐рмХ
рм╕рнБрмжрм╛рми
рммрм┐рмЧрнНрм░рм╣рморм╛рмирмЩрнНрмХ
рмЖрмормирм┐рмУрмЯрм┐рмХ
рмЪрнЗрм╕
рм░рм╛рмормХрнНрм░рнАрм╖рнНрмгрм╛рмЩрнНрмХ
рмлрнЗрм╕рморм╛рм╕рнНрмХ
рм░рм╛рммрмгрмжрнНрн▒рм╛рм░рм╛
рмирм┐рмЬрм╛рм░рнА
рмкрмЮрнНрмЪрнБрмкрм╛рмгрнНрмбрмм
рмЬрнБрмЖрмЩрнНрмЧрмХрнБ
рмЬрм╛рмдрнАрнЯрмдрм╛
рмЯрнЗрм▓рм┐рмкрнНрм░рм┐рмгрнНрмЯрм░

Citation

If you use this dataset, please refer these papers

@inproceedings{mathew2017benchmarking, 
  title={Benchmarking scene text recognition in Devanagari, Telugu and Malayalam}, 
  author={Mathew, Minesh and Jain, Mohit and Jawahar, CV}, 
  booktitle={2017 14th IAPR international conference on document analysis and recognition (ICDAR)}, 
  volume={7}, 
  pages={42--46}, 
  year={2017}, 
  organization={IEEE} 
} 

@inproceedings{gunna2021transfer, 
  title={Transfer learning for scene text recognition in Indian languages}, 
  author={Gunna, Sanjana and Saluja, Rohit and Jawahar, CV}, 
  booktitle={International Conference on Document Analysis and Recognition}, 
  pages={182--197}, 
  year={2021}, 
  organization={Springer} 
} 

@inproceedings{lunia2023indicstr12, 
  title={IndicSTR12: A Dataset for Indic Scene Text Recognition}, 
  author={Lunia, Harsh and Mondal, Ajoy and Jawahar, CV}, 
  booktitle={International Conference on Document Analysis and Recognition}, 
  pages={233--250}, 
  year={2023}, 
  organization={Springer} 
} 

Feedback form