rtdetr_v2_r50vd-mobile-ui-design

This model is a fine-tuned version of PekingU/rtdetr_v2_r50vd on the mrtoy/mobile-ui-design dataset. It achieves the following results on the evaluation set:

  • Loss: 12.0882
  • Map: 0.1958
  • Map 50: 0.288
  • Map 75: 0.1958
  • Map Small: 0.1607
  • Map Medium: 0.2034
  • Map Large: 0.3759
  • Mar 1: 0.0563
  • Mar 10: 0.3081
  • Mar 100: 0.5845
  • Mar Small: 0.4063
  • Mar Medium: 0.6779
  • Mar Large: 0.8041
  • Map Group: 0.1713
  • Mar 100 Group: 0.6243
  • Map Image: 0.1585
  • Mar 100 Image: 0.6072
  • Map Rectangle: 0.2448
  • Mar 100 Rectangle: 0.5766
  • Map Text: 0.2088
  • Mar 100 Text: 0.5297

Model description

More information needed

Intended uses & limitations

More information needed

Training and evaluation data

More information needed

Training procedure

Training hyperparameters

The following hyperparameters were used during training:

  • learning_rate: 5e-05
  • train_batch_size: 4
  • eval_batch_size: 4
  • seed: 42
  • optimizer: Use OptimizerNames.ADAMW_TORCH_FUSED with betas=(0.9,0.999) and epsilon=1e-08 and optimizer_args=No additional optimizer arguments
  • lr_scheduler_type: linear
  • lr_scheduler_warmup_steps: 0.1
  • num_epochs: 50.0
  • mixed_precision_training: Native AMP

Training results

Training Loss Epoch Step Validation Loss Map Map 50 Map 75 Map Small Map Medium Map Large Mar 1 Mar 10 Mar 100 Mar Small Mar Medium Mar Large Map Group Mar 100 Group Map Image Mar 100 Image Map Rectangle Mar 100 Rectangle Map Text Mar 100 Text
55.8656 1.0 197 43.5388 0.0123 0.0267 0.0093 0.0062 0.0136 0.0184 0.0115 0.0611 0.1174 0.0572 0.1614 0.1957 0.0161 0.1313 0.0109 0.1438 0.0114 0.1279 0.0108 0.0666
35.5165 2.0 394 23.4163 0.0716 0.1171 0.0669 0.0267 0.096 0.1324 0.0456 0.1797 0.2843 0.1084 0.3759 0.5296 0.0694 0.3028 0.06 0.3105 0.0959 0.3392 0.0612 0.1846
26.8449 3.0 591 16.9892 0.1189 0.1854 0.1127 0.053 0.1603 0.1995 0.0494 0.249 0.4106 0.2152 0.494 0.6712 0.0906 0.4305 0.0919 0.4122 0.1716 0.4213 0.1214 0.3786
22.8170 4.0 788 13.8000 0.1392 0.2129 0.1353 0.077 0.178 0.247 0.0496 0.2731 0.5092 0.3418 0.5626 0.7532 0.0823 0.5008 0.123 0.5696 0.1837 0.4991 0.168 0.4673
21.8050 5.0 985 13.0857 0.1336 0.2052 0.1312 0.0916 0.1982 0.2466 0.0425 0.2634 0.5203 0.3393 0.5987 0.7671 0.0806 0.5479 0.125 0.5692 0.1731 0.5006 0.1558 0.4635
22.0556 6.0 1182 12.7279 0.1305 0.1975 0.1269 0.0903 0.1732 0.2618 0.0421 0.2517 0.5203 0.323 0.6019 0.7759 0.0814 0.524 0.1155 0.5829 0.1625 0.5015 0.1626 0.4728
22.1292 7.0 1379 12.9507 0.1397 0.2045 0.1387 0.0917 0.1775 0.2806 0.0466 0.2688 0.5175 0.32 0.6147 0.766 0.0939 0.5467 0.1352 0.5967 0.2092 0.5256 0.1206 0.4008
20.8760 8.0 1576 12.5971 0.1315 0.1904 0.1302 0.0793 0.1796 0.2931 0.0453 0.2495 0.5155 0.3164 0.6172 0.7772 0.081 0.5586 0.1259 0.5855 0.2041 0.5357 0.1151 0.3821
19.7137 9.0 1773 12.5026 0.1649 0.2366 0.1638 0.1094 0.2227 0.3334 0.0522 0.2825 0.5371 0.3533 0.6244 0.7958 0.1146 0.5697 0.1719 0.6035 0.238 0.5516 0.135 0.4239
19.8549 10.0 1970 12.3509 0.1721 0.2511 0.1721 0.1233 0.2056 0.3327 0.0522 0.2882 0.5536 0.3728 0.6349 0.7829 0.1124 0.5746 0.1657 0.5967 0.2365 0.5585 0.1736 0.4847
18.5614 11.0 2167 12.2564 0.1591 0.2348 0.1577 0.1167 0.1908 0.3211 0.0471 0.2689 0.5469 0.3613 0.6393 0.7838 0.1224 0.5849 0.1498 0.5935 0.2269 0.5552 0.1375 0.454
19.2418 12.0 2364 12.1745 0.1487 0.2182 0.1484 0.1181 0.1846 0.2964 0.0418 0.2578 0.5544 0.3728 0.6421 0.7923 0.1167 0.5984 0.1285 0.5934 0.2154 0.5535 0.1343 0.4722
18.8690 13.0 2561 12.2145 0.152 0.2239 0.1516 0.1234 0.1978 0.2948 0.0466 0.2713 0.5458 0.3524 0.6396 0.797 0.1105 0.5736 0.1366 0.5877 0.2055 0.5513 0.1555 0.4708
18.2728 14.0 2758 12.1143 0.1499 0.2172 0.1502 0.1148 0.1645 0.3206 0.0473 0.2595 0.551 0.3633 0.6489 0.7928 0.1201 0.5851 0.1391 0.6088 0.2194 0.5548 0.121 0.4554
17.5601 15.0 2955 12.2068 0.1538 0.2251 0.1523 0.1176 0.1885 0.3152 0.048 0.2633 0.5519 0.3565 0.6539 0.792 0.1116 0.5897 0.1402 0.5876 0.2133 0.5609 0.15 0.4694
18.2213 16.0 3152 12.1049 0.1782 0.2604 0.1779 0.1413 0.2115 0.3494 0.0496 0.2804 0.5733 0.4009 0.655 0.7998 0.1395 0.6098 0.1402 0.5965 0.2375 0.5584 0.1955 0.5284
17.3730 17.0 3349 12.0430 0.1566 0.2282 0.1566 0.1156 0.1701 0.3496 0.0487 0.2676 0.5526 0.3627 0.6502 0.7968 0.1199 0.5939 0.1329 0.594 0.2224 0.5525 0.1513 0.47
19.5684 18.0 3546 11.9404 0.1599 0.2337 0.1601 0.1398 0.1847 0.3373 0.0498 0.2691 0.5662 0.3903 0.6579 0.7932 0.1305 0.6097 0.1303 0.6181 0.2214 0.5588 0.1574 0.4782
17.9432 19.0 3743 11.9763 0.1659 0.2394 0.1659 0.1262 0.1777 0.3601 0.0487 0.2725 0.5678 0.3887 0.6616 0.7966 0.1489 0.6105 0.1379 0.6112 0.2212 0.5654 0.1557 0.4841
18.3232 20.0 3940 12.0940 0.1572 0.2309 0.1574 0.1271 0.1734 0.3297 0.0512 0.271 0.5631 0.3717 0.6626 0.8015 0.13 0.5991 0.152 0.5853 0.195 0.5625 0.1517 0.5055
17.6403 21.0 4137 12.5035 0.1685 0.2494 0.17 0.1254 0.1986 0.3349 0.0488 0.2837 0.5632 0.3742 0.6571 0.799 0.1369 0.5981 0.1447 0.578 0.2242 0.5551 0.1681 0.5217
16.2092 22.0 4334 12.3009 0.1842 0.2743 0.1858 0.1401 0.1966 0.3379 0.0553 0.2974 0.5754 0.3954 0.6626 0.8046 0.149 0.6101 0.1665 0.6132 0.2186 0.5656 0.2026 0.5126
16.2173 23.0 4531 11.9927 0.1899 0.2799 0.192 0.1536 0.2188 0.364 0.0554 0.3015 0.5809 0.4015 0.6694 0.8118 0.1474 0.6088 0.1712 0.6317 0.2275 0.5593 0.2134 0.5236
16.2246 24.0 4728 11.9161 0.194 0.2853 0.1965 0.1591 0.2181 0.3723 0.057 0.3004 0.5715 0.3904 0.6635 0.7929 0.1559 0.6033 0.1886 0.6084 0.2442 0.5613 0.1874 0.5129
16.0854 25.0 4925 12.1071 0.1841 0.2644 0.1843 0.1431 0.2085 0.3702 0.0555 0.2878 0.5634 0.3697 0.6629 0.8013 0.151 0.5961 0.159 0.5909 0.2501 0.5585 0.1761 0.5082
16.6404 26.0 5122 11.8880 0.1706 0.2473 0.1713 0.1497 0.2103 0.3378 0.0522 0.2774 0.5691 0.3808 0.6692 0.8011 0.1591 0.6128 0.1553 0.6104 0.2156 0.5584 0.1524 0.495
16.5509 27.0 5319 11.9315 0.1675 0.2452 0.1695 0.1516 0.1963 0.3504 0.05 0.2801 0.5609 0.3626 0.6657 0.8052 0.1456 0.5915 0.1561 0.609 0.2135 0.5573 0.1548 0.4857
15.1334 28.0 5516 12.0130 0.1849 0.2688 0.186 0.1634 0.212 0.3607 0.0528 0.2955 0.5758 0.3914 0.668 0.8044 0.1614 0.6041 0.1571 0.6138 0.228 0.5622 0.1932 0.523
17.2440 29.0 5713 11.8829 0.1765 0.2633 0.1759 0.155 0.1847 0.344 0.0518 0.2855 0.572 0.383 0.6678 0.8074 0.1473 0.6048 0.1447 0.6101 0.2176 0.5588 0.1965 0.5143
15.5312 30.0 5910 11.9821 0.1705 0.2482 0.1706 0.1478 0.1948 0.355 0.0514 0.2854 0.5665 0.3718 0.6706 0.8062 0.1416 0.5983 0.1479 0.6037 0.2256 0.5567 0.1668 0.5073
16.9737 31.0 6107 12.0385 0.1877 0.2788 0.187 0.1578 0.211 0.348 0.0556 0.2957 0.576 0.3918 0.6688 0.8054 0.1607 0.6171 0.1512 0.5852 0.2252 0.5674 0.2137 0.5344
15.4584 32.0 6304 11.9647 0.1897 0.2777 0.1899 0.1563 0.2014 0.3765 0.0553 0.2968 0.578 0.3959 0.6698 0.7989 0.1608 0.6105 0.1543 0.6053 0.2325 0.5656 0.2112 0.5307
14.9642 33.0 6501 11.9845 0.1827 0.2705 0.1831 0.1558 0.2015 0.3554 0.056 0.2999 0.5696 0.3785 0.6684 0.8102 0.1522 0.6072 0.1597 0.5956 0.2185 0.5588 0.2003 0.5167
15.6485 34.0 6698 11.8536 0.1859 0.2723 0.1868 0.1695 0.2062 0.3526 0.0532 0.3031 0.5763 0.3922 0.6719 0.8042 0.1601 0.6141 0.1531 0.608 0.2298 0.5667 0.2004 0.5163
13.9603 35.0 6895 12.0123 0.1881 0.2769 0.188 0.1512 0.2049 0.372 0.0543 0.297 0.5779 0.395 0.6692 0.8002 0.1499 0.6149 0.1437 0.5968 0.2386 0.5608 0.2201 0.5393
13.5389 36.0 7092 11.9316 0.1968 0.2873 0.1961 0.1623 0.2137 0.3735 0.0559 0.3117 0.581 0.3994 0.674 0.8079 0.1615 0.6208 0.1735 0.612 0.2465 0.5623 0.2056 0.5289
14.8732 37.0 7289 12.0280 0.1937 0.2862 0.1949 0.1661 0.201 0.3688 0.0548 0.3057 0.5793 0.3997 0.669 0.8032 0.1578 0.618 0.1715 0.6134 0.2412 0.5577 0.2041 0.5283
14.6334 38.0 7486 12.0170 0.196 0.289 0.1963 0.1648 0.2038 0.3738 0.0547 0.3083 0.5792 0.3978 0.6755 0.8044 0.1597 0.6195 0.1768 0.6079 0.2433 0.5673 0.2043 0.5223
15.0557 39.0 7683 12.0455 0.2022 0.2965 0.2024 0.1639 0.2082 0.3881 0.0568 0.3132 0.5876 0.4128 0.6787 0.8055 0.1687 0.6291 0.1697 0.6147 0.2516 0.5744 0.2188 0.5324
15.1453 40.0 7880 12.0157 0.1854 0.2729 0.1841 0.1569 0.2068 0.3458 0.0535 0.2966 0.5787 0.3974 0.672 0.8007 0.1655 0.6195 0.1432 0.5982 0.2401 0.566 0.1929 0.5309
14.1211 41.0 8077 12.0627 0.1783 0.2636 0.1776 0.1513 0.1947 0.3482 0.0553 0.2943 0.5731 0.3821 0.6739 0.8079 0.164 0.6133 0.131 0.5802 0.2267 0.5745 0.1915 0.5242
13.4102 42.0 8274 12.0100 0.1972 0.2923 0.1957 0.1724 0.2077 0.3625 0.0566 0.3077 0.5821 0.4063 0.6759 0.7932 0.178 0.621 0.1524 0.6047 0.2482 0.5745 0.2102 0.528
15.5901 43.0 8471 12.0423 0.1934 0.2857 0.1946 0.1672 0.2123 0.3568 0.0543 0.3086 0.5824 0.4044 0.6744 0.8041 0.1758 0.6236 0.1473 0.6035 0.2365 0.5695 0.2141 0.5332
14.3741 44.0 8668 12.0248 0.1845 0.2728 0.184 0.1608 0.2006 0.3543 0.0562 0.2936 0.5772 0.3964 0.672 0.7981 0.176 0.6228 0.1291 0.5901 0.2329 0.5697 0.2001 0.5262
14.3427 45.0 8865 12.0889 0.1944 0.2854 0.1952 0.1662 0.2047 0.3745 0.0566 0.3051 0.5808 0.4012 0.6733 0.8049 0.1774 0.6181 0.1488 0.6023 0.243 0.5727 0.2084 0.5303
14.6279 46.0 9062 12.0064 0.1798 0.2669 0.1787 0.1609 0.1963 0.3445 0.0545 0.2927 0.573 0.3875 0.6716 0.8011 0.1677 0.6156 0.1345 0.595 0.2291 0.5666 0.1881 0.5147
14.1108 47.0 9259 12.0273 0.1881 0.2794 0.1887 0.1624 0.2015 0.3668 0.056 0.3026 0.5779 0.3959 0.6744 0.7999 0.17 0.6182 0.1466 0.5935 0.2232 0.5715 0.2126 0.5283
13.4491 48.0 9456 12.1198 0.1821 0.27 0.1823 0.1586 0.1978 0.3544 0.0548 0.2951 0.577 0.391 0.6778 0.8068 0.1683 0.6166 0.1374 0.5924 0.2224 0.5745 0.2003 0.5246
14.5219 49.0 9653 12.0486 0.1854 0.273 0.1859 0.1601 0.2013 0.3625 0.0549 0.3027 0.578 0.3949 0.6772 0.8019 0.1698 0.6199 0.1493 0.5986 0.2278 0.5737 0.1948 0.5198
14.8659 50.0 9850 12.1054 0.1865 0.2758 0.1868 0.16 0.2027 0.3628 0.0554 0.3008 0.5795 0.3965 0.6769 0.8031 0.1712 0.6202 0.1458 0.6013 0.2285 0.5749 0.2005 0.5218

Framework versions

  • Transformers 5.3.0
  • Pytorch 2.10.0+cu128
  • Datasets 4.8.4
  • Tokenizers 0.22.2
Downloads last month
429
Safetensors
Model size
42.9M params
Tensor type
F32
·
Inference Providers NEW
This model isn't deployed by any Inference Provider. 🙋 Ask for provider support

Model tree for merve/rtdetr_v2_r50vd-mobile-ui-design

Finetuned
(48)
this model