分享你的福利吧
f.uliba.net

GitHub:供计算机学习鉴黄功能的图片数据库

想要构建一套鉴黄系统,必须有大量的真实图片供计算机进行学习,以便于区分开正常图片和黄色图片。

近期有位程序员在Github上传了图片列表,里面包含了大量图片地址可以供计算机进行学习。

图片分为几类,正常图,性感图,SQ图等,在项目主页有具体的部署和使用方法。

注意,真人观看的话可能身体略有不适,不要在公共场合进行学习,并且注意补充营养。

https://github.com/alexkimxyz/nsfw_data_scrapper/tree/master/raw_data

各文件夹下的txt就是图片文件列表。


赞(103) 请站长吃玛卡
本站文章未说明转载即为原创,转载请注明,福利吧 » GitHub:供计算机学习鉴黄功能的图片数据库

评论 33

  1. #1

    怎么批量下载呢

    jiacw5年前 (2019-01-19)回复
  2. #2

    等一个大神打包下载

    充电宝5年前 (2019-01-19)回复
  3. #3

    打不开啊

    咎魂5年前 (2019-01-19)回复
  4. #4

    这一张张打开看?

    辛斯基5年前 (2019-01-19)回复
  5. #5

    打开TXT文件,全选,找一个可以通过URL上传图片的图床,之后等图床给你下载。不过图片地址有点多,考验图床服务器性能了。

    Not Safe For Work5年前 (2019-01-19)回复
  6. #6

    正在努力学习中,我可是爱学习的好孩子

    雨苁5年前 (2019-01-19)回复
  7. #7

    图片质量挺高的

    够浪5年前 (2019-01-19)回复
  8. #8

    看了几个都是老外,欣赏不了啊,也就不批零下载了

    飘零5年前 (2019-01-19)回复
  9. #9

    raw打开,右键全选复制,然后迅雷批量下载就好了

    最暗之时5年前 (2019-01-19)回复
    • 试过了,迅雷最多支持一次1000个链接。

      嘻嘻嘻5年前 (2019-01-20)回复
  10. #10

    特意写了个批量下载的java工具类 = =

    福娃5年前 (2019-01-20)回复
    • 老哥源码分享一下

      公鸡大鱼怪5年前 (2019-01-20)回复
    • wget -i了解一下

      0sec5年前 (2019-01-20)回复
    • 写个多线程下载,美滋滋

      看你爹呢??5年前 (2019-01-20)回复
  11. #11

    好多图片,有没有大佬打包链接

    敦刻尔克5年前 (2019-01-20)回复
  12. #12

    上层目录有个scripts脚本目录里有下载脚本

    羊肉片5年前 (2019-01-20)回复
    • 不会用啊

      ss5年前 (2019-01-22)回复
      • 找一个linux环境,把整个项目下载下来,进到scripts目录,执行2开头那个脚本就行

        羊肉片5年前 (2019-01-24)回复
  13. #13

    我爱学习
    手动滑稽

    15年前 (2019-01-21)回复
  14. #14

    欧美的比较不喜欢看,有没亚洲的

    testzz5年前 (2019-01-22)回复
  15. #15

    我用IDM下了三天。连一个分类都没下载下来

    aew5年前 (2019-01-24)回复
    • 怎么下的呀,是不是复制那些jpg的连接然后到idm新建任务然后复制进去下载啊,我光筛选都筛选了好久好久。。然后就放弃了。。

      玩蛇达人许公子5年前 (2019-01-24)回复
  16. #16

    IDM和硬盘君要辛苦了

    杰尼小P5年前 (2019-01-26)回复
  17. #17

    有运行说明很简单的。

    Change working directory to scripts and execute each script in the sequence indicated by the number in the file name, e.g.:

    $ bash 1_get_urls.sh # has already been run
    $ find ../raw_data -name “urls_*.txt” -exec sh -c “echo Number of URLs in {}: ; cat {} | wc -l” \;
    Number of URLs in ../raw_data/drawings/urls_drawings.txt:
    25732
    Number of URLs in ../raw_data/hentai/urls_hentai.txt:
    45228
    Number of URLs in ../raw_data/neutral/urls_neutral.txt:
    20960
    Number of URLs in ../raw_data/sexy/urls_sexy.txt:
    19554
    Number of URLs in ../raw_data/porn/urls_porn.txt:
    116521
    $ bash 2_download_from_urls.sh
    $ bash 3_optional_download_drawings.sh # optional
    $ bash 4_optional_download_neutral.sh # optional
    $ bash 5_create_train.sh
    $ bash 6_create_test.sh
    $ cd ../data
    $ ls train
    drawings hentai neutral porn sexy
    $ ls test
    drawings hentai neutral porn sexy

    小悟哥哥5年前 (2019-01-26)回复
  18. #18

    http://img2.youwant.info/temp/1901/1e4ceb0efe3b6bc6.png
    下载中

    subworkman5年前 (2019-01-29)回复
  19. #19

    已经下载70000多张了,还有大概40000张就下载完了

    74264245435年前 (2019-02-03)回复
  20. #20

    下载完一个,一共下载了图片115567张

    jcjcjfn5年前 (2019-02-03)回复
  21. #21

    我写个爬虫脚本给大家

    pig5年前 (2019-02-14)回复
    • 在哪呢

      newdas5年前 (2019-03-03)回复
  22. #22

    git clone https://github.com/alexkimxyz/nsfw_data_scraper.git
    cd nsfw_data_scraper
    find . -type f |xargs -i cat {}|xargs -i aria2c -c {}
    搞定收工,嘻嘻!

    我曰哦5年前 (2019-03-13)回复
  23. #23

    怎么说呢。。。批量下载图片太多,电脑卡死了 !

    我的天5年前 (2019-04-02)回复

福利吧旗下网址

福利吧导航福利吧论坛

登录

找回密码

注册