Core Compatibility Report: faithful-chicken/v0
| ๐ก |
bioimageio format validation |
| status |
valid-format |
| source |
https://hypha.aicell.io/bioimage-io/artifacts/faithful-chicken/files/rdf.yaml?version=v0 |
| id |
faithful-chicken |
| format version |
model 0.5.6 |
| bioimageio.spec |
0.5.6.0 |
|
Location |
Details |
| โ๏ธ |
|
Successfully created `ModelDescr` instance. |
| โ๏ธ |
|
bioimageio.spec format validation model 0.5.6 |
| โ |
inputs.0.sample_tensor |
Needs to be filled for FAIR compliance |
| โ |
inputs.1.sample_tensor |
Needs to be filled for FAIR compliance |
| โ |
inputs.2.sample_tensor |
Needs to be filled for FAIR compliance |
| โ |
inputs.3.sample_tensor |
Needs to be filled for FAIR compliance |
| โ |
inputs.4.sample_tensor |
Needs to be filled for FAIR compliance |
| โ |
inputs.5.sample_tensor |
Needs to be filled for FAIR compliance |
| โ |
outputs.0.sample_tensor |
Needs to be filled for FAIR compliance |
| โ |
outputs.1.sample_tensor |
Needs to be filled for FAIR compliance |
| โ |
outputs.2.sample_tensor |
Needs to be filled for FAIR compliance |
| โ |
weights.pytorch_state_dict |
Reproduce test outputs from test inputs (pytorch_state_dict) |
| โ |
weights.pytorch_state_dict |
'vit_t' |
|
|
See Traceback 1. |
|
weights.pytorch_state_dict |
recommended conda environment (Reproduce test outputs from test inputs (pytorch_state_dict)) |
|
|
%YAML 1.2
---
name: sam
channels:
- pytorch
- conda-forge
- nodefaults
dependencies:
- conda-forge::bioimageio.core
- segment-anything
- pip:
- git+https://github.com/ChaoningZhang/MobileSAM.git
- pip
|
|
weights.pytorch_state_dict |
conda compare (Reproduce test outputs from test inputs (pytorch_state_dict)) |
|
|
//github.com/chaoningzhang/mobilesam.git not found |
Traceback 1
โญโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโ Traceback (most recent call last) โโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโฎ
โ /usr/share/miniconda/envs/46771e8d89d70cdd1f8a607c2df86121277e61f659413ee5ebf5f444a2574f83/lib/p โ
โ โ
โ 781 โ โ test_input = get_test_input_sample(model) โ
โ 782 โ โ expected = get_test_output_sample(model) โ
โ 783 โ โ โ
โ โฑ 784 โ โ with create_prediction_pipeline( โ
โ 785 โ โ โ bioimageio_model=model, devices=devices, weight_format=weight_format โ
โ 786 โ โ ) as prediction_pipeline: โ
โ 787 โ โ โ results = prediction_pipeline.predict_sample_without_blocking(test_input) โ
โ โ
โ /usr/share/miniconda/envs/46771e8d89d70cdd1f8a607c2df86121277e61f659413ee5ebf5f444a2574f83/lib/p โ
โ โ
โ 368 โ โ โ f"deprecated create_prediction_pipeline kwargs: {set(deprecated_kwargs)}" โ
โ 369 โ โ ) โ
โ 370 โ โ
โ โฑ 371 โ model_adapter = model_adapter or create_model_adapter( โ
โ 372 โ โ model_description=bioimageio_model, โ
โ 373 โ โ devices=devices, โ
โ 374 โ โ weight_format_priority_order=weights_format and (weights_format,), โ
โ โ
โ /usr/share/miniconda/envs/46771e8d89d70cdd1f8a607c2df86121277e61f659413ee5ebf5f444a2574f83/lib/p โ
โ โ
โ 166 โ โ assert errors โ
โ 167 โ โ if len(weight_format_priority_order) == 1: โ
โ 168 โ โ โ assert len(errors) == 1 โ
โ โฑ 169 โ โ โ raise errors[0] โ
โ 170 โ โ โ
โ 171 โ โ else: โ
โ 172 โ โ โ msg = ( โ
โ โ
โ /usr/share/miniconda/envs/46771e8d89d70cdd1f8a607c2df86121277e61f659413ee5ebf5f444a2574f83/lib/p โ
โ โ
โ 109 โ โ โ โ try: โ
โ 110 โ โ โ โ โ from .pytorch_backend import PytorchModelAdapter โ
โ 111 โ โ โ โ โ โ
โ โฑ 112 โ โ โ โ โ return PytorchModelAdapter( โ
โ 113 โ โ โ โ โ โ model_description=model_description, devices=devices โ
โ 114 โ โ โ โ โ ) โ
โ 115 โ โ โ โ except Exception as e: โ
โ โ
โ /usr/share/miniconda/envs/46771e8d89d70cdd1f8a607c2df86121277e61f659413ee5ebf5f444a2574f83/lib/p โ
โ โ
โ 35 โ โ โ raise ValueError("No `pytorch_state_dict` weights found") โ
โ 36 โ โ โ
โ 37 โ โ devices = get_devices(devices) โ
โ โฑ 38 โ โ self._model = load_torch_model(weights, load_state=True, devices=devices) โ
โ 39 โ โ if mode == "eval": โ
โ 40 โ โ โ self._model = self._model.eval() โ
โ 41 โ โ elif mode == "train": โ
โ โ
โ /usr/share/miniconda/envs/46771e8d89d70cdd1f8a607c2df86121277e61f659413ee5ebf5f444a2574f83/lib/p โ
โ โ
โ 113 โ โ if isinstance(weight_spec, v0_4.PytorchStateDictWeightsDescr) โ
โ 114 โ โ else weight_spec.architecture.kwargs โ
โ 115 โ ) โ
โ โฑ 116 โ torch_model = custom_callable(**model_kwargs) โ
โ 117 โ โ
โ 118 โ if not isinstance(torch_model, nn.Module): โ
โ 119 โ โ if isinstance( โ
โ โ
โ /tmp/tmp1n_omv45/predictor_adaptor_c55a850510e70b6b815afbec1d19da92792de97c4cf4384ba95d0024157f5 โ
โ โ
โ 28 โ """ โ
โ 29 โ def __init__(self, model_type: str) -> None: โ
โ 30 โ โ super().__init__() โ
โ โฑ 31 โ โ sam_model = sam_model_registry[model_type]() โ
โ 32 โ โ self.sam = SamPredictor(sam_model) โ
โ 33 โ โ
โ 34 โ def load_state_dict(self, state): โ
โฐโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโฏ
KeyError: 'vit_t'