Seismic Viewer Using Bokeh

administrator

0 Comment

Link

Seismic Viewer Using Bokeh – Alur kerja seismik + sumur bertujuan untuk memprediksi properti profil sumur berdasarkan fitur input seismik. Masukan dan target dapat berasal dari sumur nyata dan sumber daya seismik nyata (misalnya data impedansi elastis) atau data sintetik yang dihasilkan oleh SynthRock.

Kami akan menjelaskan antarmuka pengguna berdasarkan contoh sederhana di mana kami membuat volume porositas dari volume impedansi akustik terbalik.

Seismic Viewer Using Bokeh

Perhatikan bahwa implementasi alur kerja ini saat ini hanya menerima fitur input dari sisi seismik (kebanyakan waktu 2 arah), sedangkan fitur target ditarik dari log sumur (dari kedalaman). Ini tidak diinginkan karena loop sumur harus sempurna untuk mengekstrak catatan dan target yang sesuai. Ini tidak pernah terjadi. Karena kita hanya perlu menemukan hubungan antara impedansi akustik dan porositas, masuk akal untuk memisahkan input dan target dari log. Dalam hal ini: catatan impedansi akustik dan catatan porositas yang sesuai. Ini memastikan keselarasan di sepanjang seluruh jalur poros. Menerapkan hubungan ini (model terlatih) mengubah volume AI menjadi volume porositas dengan kebingungan yang sama yang melekat pada volume AI.

Buddhism Map Hi Res Stock Photography And Images

Alur kerja yang dijelaskan di atas akan diterapkan dalam waktu dekat. Data pelatihan kemudian dapat diekstraksi dari sumur nyata dan sumur semu yang dibuat dengan SynthRock. Alur kerjanya sudah bisa ditiru di OpendTect, meski agak rumit. Memerlukan beberapa langkah persiapan data tambahan: gunakan opsi LogCube untuk mengonversi log AI input menjadi kubus pseudo-seismik dengan pengambilan sampel 4 ms (Anda bahkan dapat menggunakan dan membuat kubus atribut tambahan dari mereka seperti log AI, AI sqrt, turunan AI dengan kedalaman, dll. untuk lebih banyak sumber masukan). Sebelum menggunakan kubus ini untuk memprediksi porositas di Seismic+Wells UI, Anda mungkin ingin menerapkan filter low-pass agar berjalan pada frekuensi yang sama dengan AI terbalik.

Kami mengikuti alur kerja yang diimplementasikan dalam versi saat ini tanpa langkah-langkah pra-pemrosesan ini. Kami memiliki 4 sumur dengan catatan porositas. Pilih alur kerja dan tekan Go…

Pilih log tujuan. Dalam latihan sampel ini, kami memilih keempat sumur. Dalam studi nyata, kami merekomendasikan untuk memesan setidaknya satu sumur sebagai sumur uji buta (set validasi).

BACA JUGA  Video Bokeh Full Mikha Tambayong

Anda dapat membuat set pelatihan dari sumur yang disimpan di beberapa proyek. Untuk memilih sumur dari proyek berikutnya, tekan ikon + dan ulangi latihan ini hingga kami memilih semua sumur dari semua studi di set pelatihan ini. Opsional, simpan pilihan sumur untuk digunakan nanti

Osdu™ Data Platform

Pilihan dapat disimpan, dipanggil kembali (Buka) dan diubah (Ubah) menggunakan ikon yang sesuai. Hapus menghapus file opsi dari database.

Pilih sumber daya masukan. Dalam hal ini, hanya satu volume yang dipilih: kubus impedansi akustik bernama “7a AI Cube std”. Tekan tombol OK.

Langkah Z (m) dari pengambilan sampel log tergantung pada kecepatan. Kami memiliki seismik di TWT dan log di kedalaman. Kami menginginkan tingkat sampel yang kira-kira sama untuk keduanya (ini dan penyelarasan sempurna yang dapat kami pastikan jika kami menggunakan langkah prapemrosesan LogCube di atas). Dalam hal ini, kami menetapkan langkah ke 5m.

Parameter stepout menentukan berapa banyak sampel yang diekstraksi di atas dan di bawah setiap titik evaluasi, dan berapa banyak jejak yang diekstraksi di sekitar jalur sumur dalam langkah inline dan crossline. Langkah-langkah dalam arah berurutan dan diagonal mengalikan contoh kita. Setiap contoh memiliki sifat seismik yang sedikit berbeda, namun nilai porositas target pada setiap lokasi sepanjang lintasan adalah sama.

A Publicly Accessible Web Page That Functions As An Interactive Journal Is Called A(n):

Untuk mengekstrak hanya zona minat, kita dapat memilih penanda yang sesuai untuk memisahkan antara sepasang titik awal dan akhir yang ditentukan. Jika pengaturan default dibiarkan, seluruh log akan digunakan.

Kebijakan Edge/Gap mengatur cara kami menangani contoh dengan sumber daya input yang hilang. Jika langkahnya 10, kita membutuhkan 10 sampel di atas dan 10 di bawah setiap titik prediksi. Pola Delete Incomplete tidak mengembalikan nilai, yang berarti setiap celah kehilangan lebih dari 10 sampel dan kurang dari 10 sampel. Saat sakelar diatur ke Tambahkan Data, nilai di tepi fungsi input disalin ke Waktu Stepout sehingga model dapat memprediksi di tepi. Dengan kata lain, log yang diprediksi mencakup rentang yang sama dengan log masukan (kisaran tidak bertambah).

Setelah kami menyimpan data yang diekstrak untuk pelatihan, kami dapat pindah ke tab Pelatihan dengan opsi Data pelatihan (masukkan data sampel pembelajaran mendalam). Setelah data pelatihan dipilih, antarmuka pengguna menunjukkan model mana yang tersedia.

BACA JUGA  Video Bokeh Barat Boss Berselera Jumbo

Di bagian Pilih data pelatihan, ada tiga sakelar yang mengontrol jenis pelatihan: Baru dimulai dari keadaan awal acak. Kurikulum dimulai dengan jaringan yang disimpan (dilatih sebagian). Ini digunakan untuk melanjutkan pelatihan ketika jaringan belum sepenuhnya terkonvergensi. Transfer dimulai dengan jaringan terlatih menerima data pelatihan baru. Bobot yang melekat pada lapisan konvolusional tidak diperbarui dalam pelatihan transfer. Hanya bobot yang melekat pada lapisan terakhir (biasanya lapisan padat) yang diperbarui.

Data Reclassification — Geospatial Analysis With Python And R 2021 Documentation

Periksa tab Parameter untuk melihat template mana yang didukung dan parameter mana yang dapat diubah. Di Scikit Learn, saat ini kami mendukung:

Hasil terbaik kami diperoleh dengan Hutan Acak dan XGBoost (Peningkatan Gradien eXtreme dari model hutan acak). Hutan acak membangun banyak pohon sekaligus dan rata-rata hasilnya di akhir, sementara peningkatan gradien membangun dan menambahkan satu pohon pada satu waktu. Peningkatan gradien ini membuat penyetelan parameter menjadi lebih sulit, tetapi jika lebih dalam, dapat meningkatkan akurasi untuk kumpulan data yang kompleks atau tidak seimbang.

Dari perspektif statistik, Random Forest adalah apa yang disebut algoritme pengepakan, yang berarti menggabungkan beberapa model individu dengan varian tinggi dan bias rendah untuk meningkatkan kinerja secara keseluruhan. Peningkatan gradien adalah algoritme peningkatan, yang berarti menggabungkan beberapa model individual dengan bias tinggi dan varian rendah untuk meningkatkan kinerja secara keseluruhan. Informasi lebih lanjut tentang parameter dapat ditemukan di https://scikit-learn.org/stable/user_guide.html

Setelah memilih model, kembali ke tab Training, atur model Output Deep Learning dan tekan tombol Run berwarna hijau. Di sinilah pelatihan model dimulai. Pada tab ini, tombol Run kini telah digantikan oleh tombol Stop dan Cancel.

Gaming Business Summer 2022 By Mediaedge

Kemajuan dapat dilacak dalam file log teks. Jika file log ini tidak dimulai secara otomatis, tekan ikon file log di bilah alat di sisi kanan jendela.

Di bawah ikon file log terdapat tombol Reset untuk memuat ulang jendela. Di bawahnya ada tiga ikon tambahan yang mengontrol server Bokeh, yang mengelola komunikasi dengan sisi Python dari plugin pembelajaran mesin. Server harus dimulai secara otomatis. Jika terjadi masalah, ini dapat dikontrol secara manual melalui ikon Start dan Stop di sidebar. Status server Bokeh saat ini dapat diperiksa dengan melihat file log server Bokeh.

BACA JUGA  Xnview Amerika Filename Bokeh Full Hd Download Gratis

Jika file log pemrosesan menampilkan pesan “Pemrosesan batch selesai”, Anda dapat membuka tab Terapkan.

DGB LeNet Regressor adalah jaringan neural konvolusional yang sangat standar berdasarkan arsitektur LeNet yang terkenal (dan tersedia di Keras-TensorFlow). Disertakan di sini untuk memberi para peneliti titik awal untuk memprediksi rekaman seismik menggunakan model Keras/TensorFlow. Kami mendorong staf untuk menggunakan template ini sebagai titik awal dan mungkin menemukan yang lebih baik (yang dengan senang hati akan kami tambahkan ke daftar template yang didukung).

Svg Sportstech Journal — Fall 2021 By Sports Video Group

Ukuran batch: Jumlah contoh yang melewati jaringan setelah bobot model diperbarui. Nilai ini harus ditetapkan setinggi mungkin untuk meningkatkan keterwakilan sampel yang menjadi dasar perhitungan gradien, tetapi cukup rendah sehingga semua sampel ini muat dalam memori perangkat pelatihan (jauh lebih sedikit untuk GPU daripada untuk CPU) . Jika Anda kehabisan memori (melempar pengecualian Python OutOfMemory), kurangi ukuran batch!

Perhatikan bahwa jika model meningkatkan sampel, katakanlah, 1000 kali lipat di setiap lapisan model, persyaratan memori juga meningkat. Jadi model 3D Unet tipikal berukuran 128x128x128 menghabiskan hingga 8GB RAM (CPU atau GPU).

Zaman: adalah jumlah siklus pembaruan di seluruh set pelatihan. Jumlah epoch yang digunakan tergantung dari kompleksitas permasalahan. CNN yang relatif sederhana dapat bertemu selama 3 zaman. Jaringan yang lebih kompleks mungkin membutuhkan 30 epoch atau bahkan ratusan epoch. Harap dicatat bahwa pelatihan dapat dilakukan secara bertahap. Jaringan yang disimpan dapat dilatih lebih lanjut dengan mengaktifkan tombol Lanjutkan.

Kesabaran: Parameter ini mengontrol penghentian awal saat model berhenti berubah. Tingkatkan kesabaran untuk menghindari penghentian dini.

Artificial Intelligence Series_part 4a: Data Visualization In Python

Tingkat Pembelajaran Awal: Parameter ini menentukan seberapa cepat bobot diperbarui. Terlalu rendah berarti jaringan mungkin tidak dapat dilatih; terlalu tinggi berarti jaringan dapat melebihi dan tidak memenuhi minimum global.

Input Desimal: Parameter ini berguna untuk masalah memori. Saat kami mengurangi input, program membagi contoh pelatihan menjadi dua bagian

Tags:

Share:

Related Post

Leave a Comment