首页 文章

Google Colap上的无限load_files

提问于
浏览
0

我在Google Colab上使用python3,sklearn.datasets的方法load_files无限运行 .

在谷歌Colab笔记本上

!pwd
/content

!ls 
cat_dog ...

load_files("/content/cat_dog/Colab Notebooks/dataset/training_set")
infinite load

我在虚拟机上有我的数据集,有9000个图像 . 如果我在我的真机上执行load_files(“path”),则需要几秒钟 .

1 回答

  • 0

    您可以在Colab上编写本地文件的唯一位置是/ tmp . 建议在将数据提取到Colab之前准备好所有数据格式,并处理内存中的所有数据 .

    您可以通过各种方式处理文件系统 .

    https://colab.research.google.com/notebook#fileId=/v2/external/notebooks/io.ipynb

    # Download the file.
    !gsutil cp gs://{bucket_name}/to_upload.txt /tmp/gsutil_download.txt
    
    # Print the result to make sure the transfer worked.
    !cat /tmp/gsutil_download.txt
    

    希望能帮助到你 .

相关问题